888 resultados para Soluzione Fondamentale, Gruppi di Carnot, Gruppi Nilpotenti di Passo Due.


Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi analizza la problematica del monitoraggio ambientale a basso costo, cercando di approfondirne le caratteristiche e studiando le situazioni in cui questo vi si adatta bene. Lo studio ha permesso di realizzare due tipologie di stazioni di raccolta dati, una dedicata alla misurazione delle polveri sottili, e una dedicata alla misurazione dell’acidità delle piogge. Entrambe le stazioni condividono la logica di funzionamento, quindi il “core” rimane lo stesso pur lavorando con dati estremamente diversi, mentre si distinguono per i due sensori utilizzati. In fase di test i sensori si sono dimostrati sufficientemente precisi lasciando ben sperare per la realizzazione di applicazioni in contesti reali simili a quelli considerati durante l’analisi. Le stazioni sono in grado di fornire dati geo-localizzati consultabili attraverso un portale web, è possibile visualizzare ogni stazione su una mappa ricevendo aggiornamenti sulle ultime misurazioni, inoltre si possono modellare i dati e visualizzarli su una serie di grafici. Una delle caratteristiche fondamentali che ha guidato tutta la progettazione è stata l’estendibilità del modello, la logica di funzionamento della stazione può essere facilmente implementata su tecnologie hardware e software diverse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi riguarda l'implementazione e la verifica di alcuni algoritmi di determinazione d'assetto, con l'obiettivo di verificarne le prestazioni e valutarne la possibilità di utilizzo sul ADS del satellite DustCube, operante nel sistema binario Didymos. I filtri si basano sulla combinazione delle misure di diversi sensori, tra i quali star tracker, sensori di Sole, camera a infrarossi e giroscopio. I sensori in questione sono stati modellizzati all'interno di un simulatore implementato in MATLAB/Simulink. L'approccio utilizzato per la determinazione dell'assetto è quelllo di impiegare due differenti filtri: il primo per la calibrazione del giroscopio, il secondo che utilizza i parametri di calibrazione calcolati dal primo per correggere la velocità angolare misurata da giroscopio e determinare l'assetto con un maggiore accuratezza. Le prestazioni dei vari filtri sono state caratterizzate attraverso un'analisi statistica: le simulazioni Monte Carlo. I risultati, nei limiti delle ipotesi fatte, hanno confermato la validità dell'approccio. Per la determinazione effettiva delle prestazioni di questo sistema sull'ADS del DustCube si rimanda ad uno studio di maggior dettaglio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'oggetto di questa tesi di Laurea è lo studio di una porzione dell'aggregato dell'ex Convento di San Francesco, situato nel centro storico di Bologna. Lo studio è stato condotto a partire da una analisi storica dell'intero aggregato, per comprenderne le dinamiche costruttive e le evoluzioni nel tempo, e si è successivamente incentrato sulla porzione prospiciente la via S. Isaia, attuale sede degli uffici dell'Agenzia delle Entrate di Bologna, ex Agenzia del Territorio. Grazie al reperimento di documenti risalenti all'epoca della costruzione dell'edificio, è stato possibile svilupparne un'analisi tipologico - costruttiva, individuando i materiali utilizzati e le tecniche costruttive dell'epoca, verificando inoltre il rispetto delle Norme Tecniche Costruttive del 1936. Si è svolta quindi una analisi sismica preliminare attraverso il modello LV1, per verificare il livello di vulnerabilità globale dell'edificio. In seguito, sono state individuate le vulnerabilità dell'edificio e i cinematismi di collasso che potrebbero attivarsi, e si sono studiate possibili soluzioni per prevenirli. In fase progettuale, si sono svolte tre differenti ipotesi di intervento: due più conservative, che prevedono il consolidamento della copertura esistente, considerando le ipotesi di presenza o assenza del cordolo, e una più invasiva, comportante il rifacimento dell'intera copertura dell'edificio. Contestualmente all'ultima ipotesi, è stato realizzato un progetto architettonico di rifunzionalizzazione relativo al terzo piano dell'edificio, tenendo conto delle esigenze di nuovi spazi da adibire ad uso ufficio e di luoghi di riunione. Si è dunque studiata la possibilità di intervento anche dal punto di vista della prevenzione incendi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi è stata studiata la nuova tecnologia offerta da MPTCP che permette l'utilizzo di interfacce multiple per una stessa sessione. I benefici portati sono un miglioramento della capacità trasmissiva e una maggiore robustezza ai guasti. Per testare le sue funzionalità sono stati effettuate prove con laptop muniti di almeno due interfacce di rete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’obbiettivo che si pone questo lavoro è quello di combinare in un unico impianto due tecnologie utilizzate per scopi differenti (impianto integrato): un impianto di climatizzazione geotermico a bassa entalpia di tipo open-loop ed un impianto di bonifica delle acque di falda di tipo Pump&Treat. Il sito selezionato per lo studio è ubicato in via Lombardia, nell’area industriale di Ozzano dell’Emilia (BO), ed è definito “Ex stabilimento Ot-Gal”: si tratta di una galvanotecnica con trattamento di metalli, dismessa alla fine degli anni ’90. Durante una precedente fase di caratterizzazione del sito condotta dalla ditta Geo-Net Srl, sono stati rilevati in falda dei superamenti delle CSC previste dal D.lgs. 152/2006 di alcuni contaminanti, in particolare Tricloroetilene (TCE) e 1.1-Dicloroetilene (1.1-DCE). Successivamente, nel 2010-2011, Geo-net Srl ha eseguito una parziale bonifica delle acque di falda attraverso l’utilizzo di un impianto Pump and Treat. Grazie a tutti i dati pregressi riguardanti i monitoraggi, le prove e i sondaggi, messi a disposizione per questo studio da Geo-Net Srl, è stato possibile eseguire una sperimentazione teorica, in forma di modellazione numerica di flusso e trasporto, dell’impianto integrato oggetto di studio. La sperimentazione è stata effettuata attraverso l’utilizzo di modelli numerici basati sul codice di calcolo MODFLOW e su codici ad esso comunemente associati, quali MODPATH e MT3DMS. L’analisi dei risultati ottenuti ha permesso di valutare in modo accurato l’integrazione di queste due tecnologie combinate in unico impianto. In particolare, la bonifica all’interno del sito avviene dopo 15 dalla messa in attività. Sono stati anche confrontati i costi da sostenere per la realizzazione e l’esercizio dell’impianto integrato rispetto a quelli di un impianto tradizionale. Tale confronto ha mostrato che l’ammortamento dell’impianto integrato avviene in 13 anni e che i restanti 7 anni di esercizio producono un risparmio economico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questo lavoro di tesi ci proponiamo di determinare lo spessore degli isotopi ^155Gd e ^157Gd in vista della misura della sezione d’urto di cattura neutronica presso la facility n_TOF del CERN. La principale motivazione dell’esperimento è legata alla necessità di ottenere misure più accurate per le applicazioni ai reattori nucleari. Inoltre, i nuovi risultati, potranno essere sfruttati anche per applicazioni ai recenti sviluppi nella Terapia di Cattura Neutronica e per costruire nuovi rivelatori nell’ambito della ricerca del neutrino. La misura sarà effettuata nella prima area sperimentale EAR-1 di n TOF, equipaggiata con rivelatori, come per esempio gli scintillatori liquidi al benzene deuterato (C6D6) particolarmente adatti per questi tipi di misura. La sezione d’urto di questi due isotopi cambia di molti ordini di grandezza al variare dell’energia dei neutroni incidenti. Per questo motivo, lo studio effettuato in questa tesi ha mostrato che sono necessari due campioni altamente arricchiti per ogni isotopo da misurare: un campione estremamente sottile per energie del neutrone fino a 100 meV, e uno più spesso per energie maggiori. Inoltre per questi campioni sono stati determinati le densità areali necessarie per lo svolgimento dell’esperimento affinchè avvenga il fenomeno di trasmissione dei neutroni.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente estudo ocupa-se de uma problemática em Didática – as relações entre a investigação científica e o desenvolvimento do campo – e assenta no pressuposto de que essas relações se constroem conjugando o pensamento e a atuação de investigadores, académicos, professores, e formadores de professores, numa ação conjunta conduzida com a participação comprometida das suas instituições profissionais e orientada para o desenvolvimento de todos os intervenientes, da sua área de atividade e, assim, do ensino/aprendizagem e dos alunos. Nesse sentido, o estudo foi concebido no intuito de criar condições propícias ao estreitamento das relações em foco, tendo em vista, simultaneamente, o aprofundamento do conhecimento sobre a problemática. Assumiu, pois, uma finalidade de intervenção no terreno e uma finalidade científica de avaliação da experiência proporcionada por essa intervenção, na expectativa do alargamento da compreensão do objeto de estudo. Na confluência dessas finalidades, a investigação desenvolveu-se como um estudo de caso norteado por duas proposições teóricas: - A colaboração entre académicos e professores, no âmbito de projetos de investigação em Didática, e o comprometimento das instituições profissionais de ambos com essas iniciativas colaborativas poderão favorecer o desenvolvimento do campo, dos atores que nele intervêm e das instituições implicadas. - A formação contínua de professores centrada na investigação em Didática poderá constituir espaço privilegiado para o desenvolvimento dessas dinâmicas de colaboração. No alinhamento destas proposições com a finalidade interventiva do estudo, diferentes atores em Didática foram desafiados a envolver-se numa iniciativa de investigação/formação colaborativa e daí resultou o caso analisado nesta investigação, o projeto ICA/DL (Investiga, Colabora e Atua em Didática de Línguas). Tal projeto, realizado no âmbito de uma parceria formalizada num Protocolo de Colaboração, envolveu uma equipa composta por cinco docentes do Departamento de Didática e Tecnologia Educativa (atual Departamento de Educação) da Universidade de Aveiro e por 4 professores da Escola Secundária Dr. João Carlos Celestino Gomes – Ílhavo e implicou ainda, institucionalmente, a universidade, a escola e o Centro de Formação das Escolas do Concelho de Ílhavo (atualmente, Centro de Formação de Associação de Escolas dos Concelhos de Ílhavo, Vagos e Oliveira do Bairro). As atividades do projeto iniciaram-se no final de 2003, com os primeiros encontros de negociação da parceria, e prolongaram-se até meados de 2007, altura em que a equipa reuniu pela última vez. O programa operacional central desenvolveu-se entre janeiro de 2004 e novembro de 2005 e concretizou-se num percurso de investigação e de formação em colaboração entre académicos e professores, concebido e implementado pela equipa e acreditado pelo Conselho Científico-Pedagógico da Formação Contínua. Tal programa centrou-se no estudo de um tópico em Didática de Línguas (a competência de aprendizagem plurilingue), na realização de intervenções de ensino/aprendizagem, no âmbito do mesmo tópico, junto dos alunos na escola e na avaliação da experiência com base em dados empíricos. A investigação que sobre o caso se conduziu, ao orientar-se, na prossecução da segunda finalidade estabelecida, para a compreensão da influência das dinâmicas colaborativas de investigação/formação sobre o desenvolvimento dos intervenientes (equipa, parceiros institucionais e alunos na escola), é também um estudo de impacte. A condução do processo empírico deu prioridade à produção de uma leitura integrada e complexa, capaz de evidenciar os impactes do projeto, interpretando-os com base na análise dos processos que terão condicionado a sua ocorrência. Nessa medida, a metodologia revestiu-se, intencionalmente, de uma natureza eminentemente interpretativa e qualitativa, socorrendo-se da triangulação de fontes, dados e procedimentos de análise. Contudo, o método integrou também procedimentos quantitativos, em particular, um exercício estatístico que, correlacionando totais de evidências verificadas e totais de evidências possíveis, procurou tornar mais precisa a avaliação da dimensão do impacte alcançado pelo projeto. Ensaiou-se, assim, uma abordagem metodológica em estudos de impacte em Educação, que propõe potenciar a compreensão de casos complexos, conjugando interpretação e objetivação/quantificação. A análise desvendou constrangimentos e obstáculos na vivência dos princípios conceptuais fundadores da noção de investigação/formação colaborativa que sustentou as proposições de partida e que fez emergir o ICA/DL. Tais dificuldades limitaram a assunção de responsabilidades partilhadas na condução processual da experiência, condicionaram dinâmicas supervisivas nem sempre colaborativas e facilitadoras e manifestaram-se em atitudes de compromisso por vezes frágil com o projeto. E terão afetado a concretização das expectativas iniciais de desenvolvimento de todos os participantes, determinando impactes de dimensão globalmente algo dececionante, assimetrias substantivas de influência da experiência levada a cabo no desenvolvimento profissional dos elementos da equipa e no desenvolvimento institucional e repercutindo-se em efeitos pouco expressivos no desenvolvimento dos alunos, no que toca a capacidades ativas de comunicação e de aprendizagem, enquadradas pelo tópico didático trabalhado no âmbito do projeto. Mas revelaram-se também sinais claros de que se avançou no sentido da concretização dos pressupostos colaborativos que sustentaram a iniciativa. Foi possível reunir académicos, professores e instituições educativas em torno da ideia de investigação/formação em colaboração e mobilizá-los como parceiros que se comprometeram na construção de um projeto assente nessa ideia. E percebeu-se que, apesar de pouco expressivo, houve impacte, pois há indicadores de que o projeto contribuiu positivamente para o desenvolvimento dos intervenientes. Na equipa, sinalizaram-se efeitos sobretudo nas práticas de ensino/aprendizagem das professoras e, no caso particular de uma delas, que teve uma participação mais envolvida em atividades de investigação, manifestaram-se impactes substancialmente mais notórios do que nos restantes elementos do grupo e que abrangeram diferentes dimensões da profissionalidade. As académicas, embora menos do que as professoras, também evidenciaram desenvolvimento, dominantemente, nos planos da investigação em Didática de Línguas e da formação de professores. E o ICA/DL parece ter proporcionado também impactes positivos junto das instituições implicadas, especialmente junto da universidade, designadamente, no que toca ao aprofundamento do pensamento sobre a problemática que sustentou a experiência e ao desenvolvimento de projetos de investigação. Por seu turno, os alunos, tendo revelado sinais modestos de reforço das suas capacidades de ação como interlocutores em situações de comunicação plurilingue e como aprendentes de línguas, deram mostras claras de terem tomado consciência de atitudes e de recursos que favorecem o desenvolvimento desses dois papéis. Para além disso, os responsáveis pela parceria, apesar dos obstáculos que limitaram o alcance dos seus propósitos, reafirmaram, na conclusão do projeto, a sua confiança nos princípios colaborativos que os uniram, antecipando a continuidade de uma experiência que entenderam como primeiro passo na concretização desses princípios. No balanço das fragilidades vividas e dos ganhos conquistados pelo ICA/DL, o estudo permite renovar a convicção inicial no poder transformador das práticas de investigação/formação colaborativa em Didática, e assim, na emergência de uma comunidade una de professores e de académicos, movida por um projeto comum de desenvolvimento da Educação. Nessa perspetiva, avançam-se sugestões que abrangem a investigação, o processo de ensino/aprendizagem nas escolas, a formação de professores, as políticas em Didática e a Supervisão.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi del movimento umano ha come obiettivo la descrizione del movimento assoluto e relativo dei segmenti ossei del soggetto e, ove richiesto, dei relativi tessuti molli durante l’esecuzione di esercizi fisici. La bioingegneria mette a disposizione dell’analisi del movimento gli strumenti ed i metodi necessari per una valutazione quantitativa di efficacia, funzione e/o qualità del movimento umano, consentendo al clinico l’analisi di aspetti non individuabili con gli esami tradizionali. Tali valutazioni possono essere di ausilio all’analisi clinica di pazienti e, specialmente con riferimento a problemi ortopedici, richiedono una elevata accuratezza e precisione perché il loro uso sia valido. Il miglioramento della affidabilità dell’analisi del movimento ha quindi un impatto positivo sia sulla metodologia utilizzata, sia sulle ricadute cliniche della stessa. Per perseguire gli obiettivi scientifici descritti, è necessario effettuare una stima precisa ed accurata della posizione e orientamento nello spazio dei segmenti ossei in esame durante l’esecuzione di un qualsiasi atto motorio. Tale descrizione può essere ottenuta mediante la definizione di un modello della porzione del corpo sotto analisi e la misura di due tipi di informazione: una relativa al movimento ed una alla morfologia. L’obiettivo è quindi stimare il vettore posizione e la matrice di orientamento necessari a descrivere la collocazione nello spazio virtuale 3D di un osso utilizzando le posizioni di punti, definiti sulla superficie cutanea ottenute attraverso la stereofotogrammetria. Le traiettorie dei marker, così ottenute, vengono utilizzate per la ricostruzione della posizione e dell’orientamento istantaneo di un sistema di assi solidale con il segmento sotto esame (sistema tecnico) (Cappozzo et al. 2005). Tali traiettorie e conseguentemente i sistemi tecnici, sono affetti da due tipi di errore, uno associato allo strumento di misura e l’altro associato alla presenza di tessuti molli interposti tra osso e cute. La propagazione di quest’ultimo ai risultati finali è molto più distruttiva rispetto a quella dell’errore strumentale che è facilmente minimizzabile attraverso semplici tecniche di filtraggio (Chiari et al. 2005). In letteratura è stato evidenziato che l’errore dovuto alla deformabilità dei tessuti molli durante l’analisi del movimento umano provoca inaccuratezze tali da mettere a rischio l’utilizzabilità dei risultati. A tal proposito Andriacchi scrive: “attualmente, uno dei fattori critici che rallentano il progresso negli studi del movimento umano è la misura del movimento scheletrico partendo dai marcatori posti sulla cute” (Andriacchi et al. 2000). Relativamente alla morfologia, essa può essere acquisita, ad esempio, attraverso l’utilizzazione di tecniche per bioimmagini. Queste vengono fornite con riferimento a sistemi di assi locali in generale diversi dai sistemi tecnici. Per integrare i dati relativi al movimento con i dati morfologici occorre determinare l’operatore che consente la trasformazione tra questi due sistemi di assi (matrice di registrazione) e di conseguenza è fondamentale l’individuazione di particolari terne di riferimento, dette terne anatomiche. L’identificazione di queste terne richiede la localizzazione sul segmento osseo di particolari punti notevoli, detti repere anatomici, rispetto ad un sistema di riferimento solidale con l’osso sotto esame. Tale operazione prende il nome di calibrazione anatomica. Nella maggior parte dei laboratori di analisi del movimento viene implementata una calibrazione anatomica a “bassa risoluzione” che prevede la descrizione della morfologia dell’osso a partire dall’informazione relativa alla posizione di alcuni repere corrispondenti a prominenze ossee individuabili tramite palpazione. Attraverso la stereofotogrammetria è quindi possibile registrare la posizione di questi repere rispetto ad un sistema tecnico. Un diverso approccio di calibrazione anatomica può essere realizzato avvalendosi delle tecniche ad “alta risoluzione”, ovvero attraverso l’uso di bioimmagini. In questo caso è necessario disporre di una rappresentazione digitale dell’osso in un sistema di riferimento morfologico e localizzare i repere d’interesse attraverso palpazione in ambiente virtuale (Benedetti et al. 1994 ; Van Sint Jan et al. 2002; Van Sint Jan et al. 2003). Un simile approccio è difficilmente applicabile nella maggior parte dei laboratori di analisi del movimento, in quanto normalmente non si dispone della strumentazione necessaria per ottenere le bioimmagini; inoltre è noto che tale strumentazione in alcuni casi può essere invasiva. Per entrambe le calibrazioni anatomiche rimane da tenere in considerazione che, generalmente, i repere anatomici sono dei punti definiti arbitrariamente all’interno di un’area più vasta e irregolare che i manuali di anatomia definiscono essere il repere anatomico. L’identificazione dei repere attraverso una loro descrizione verbale è quindi povera in precisione e la difficoltà nella loro identificazione tramite palpazione manuale, a causa della presenza dei tessuti molli interposti, genera errori sia in precisione che in accuratezza. Tali errori si propagano alla stima della cinematica e della dinamica articolare (Ramakrishnan et al. 1991; Della Croce et al. 1999). Della Croce (Della Croce et al. 1999) ha inoltre evidenziato che gli errori che influenzano la collocazione nello spazio delle terne anatomiche non dipendono soltanto dalla precisione con cui vengono identificati i repere anatomici, ma anche dalle regole che si utilizzano per definire le terne. E’ infine necessario evidenziare che la palpazione manuale richiede tempo e può essere effettuata esclusivamente da personale altamente specializzato, risultando quindi molto onerosa (Simon 2004). La presente tesi prende lo spunto dai problemi sopra elencati e ha come obiettivo quello di migliorare la qualità delle informazioni necessarie alla ricostruzione della cinematica 3D dei segmenti ossei in esame affrontando i problemi posti dall’artefatto di tessuto molle e le limitazioni intrinseche nelle attuali procedure di calibrazione anatomica. I problemi sono stati affrontati sia mediante procedure di elaborazione dei dati, sia apportando modifiche ai protocolli sperimentali che consentano di conseguire tale obiettivo. Per quanto riguarda l’artefatto da tessuto molle, si è affrontato l’obiettivo di sviluppare un metodo di stima che fosse specifico per il soggetto e per l’atto motorio in esame e, conseguentemente, di elaborare un metodo che ne consentisse la minimizzazione. Il metodo di stima è non invasivo, non impone restrizione al movimento dei tessuti molli, utilizza la sola misura stereofotogrammetrica ed è basato sul principio della media correlata. Le prestazioni del metodo sono state valutate su dati ottenuti mediante una misura 3D stereofotogrammetrica e fluoroscopica sincrona (Stagni et al. 2005), (Stagni et al. 2005). La coerenza dei risultati raggiunti attraverso i due differenti metodi permette di considerare ragionevoli le stime dell’artefatto ottenute con il nuovo metodo. Tale metodo fornisce informazioni sull’artefatto di pelle in differenti porzioni della coscia del soggetto e durante diversi compiti motori, può quindi essere utilizzato come base per un piazzamento ottimo dei marcatori. Lo si è quindi utilizzato come punto di partenza per elaborare un metodo di compensazione dell’errore dovuto all’artefatto di pelle che lo modella come combinazione lineare degli angoli articolari di anca e ginocchio. Il metodo di compensazione è stato validato attraverso una procedura di simulazione sviluppata ad-hoc. Relativamente alla calibrazione anatomica si è ritenuto prioritario affrontare il problema associato all’identificazione dei repere anatomici perseguendo i seguenti obiettivi: 1. migliorare la precisione nell’identificazione dei repere e, di conseguenza, la ripetibilità dell’identificazione delle terne anatomiche e della cinematica articolare, 2. diminuire il tempo richiesto, 3. permettere che la procedura di identificazione possa essere eseguita anche da personale non specializzato. Il perseguimento di tali obiettivi ha portato alla implementazione dei seguenti metodi: • Inizialmente è stata sviluppata una procedura di palpazione virtuale automatica. Dato un osso digitale, la procedura identifica automaticamente i punti di repere più significativi, nella maniera più precisa possibile e senza l'ausilio di un operatore esperto, sulla base delle informazioni ricavabili da un osso digitale di riferimento (template), preliminarmente palpato manualmente. • E’ stato poi condotto uno studio volto ad indagare i fattori metodologici che influenzano le prestazioni del metodo funzionale nell’individuazione del centro articolare d’anca, come prerequisito fondamentale per migliorare la procedura di calibrazione anatomica. A tale scopo sono stati confrontati diversi algoritmi, diversi cluster di marcatori ed è stata valutata la prestazione del metodo in presenza di compensazione dell’artefatto di pelle. • E’stato infine proposto un metodo alternativo di calibrazione anatomica basato sull’individuazione di un insieme di punti non etichettati, giacenti sulla superficie dell’osso e ricostruiti rispetto ad un TF (UP-CAST). A partire dalla posizione di questi punti, misurati su pelvi coscia e gamba, la morfologia del relativo segmento osseo è stata stimata senza identificare i repere, bensì effettuando un’operazione di matching dei punti misurati con un modello digitale dell’osso in esame. La procedura di individuazione dei punti è stata eseguita da personale non specializzato nell’individuazione dei repere anatomici. Ai soggetti in esame è stato richiesto di effettuare dei cicli di cammino in modo tale da poter indagare gli effetti della nuova procedura di calibrazione anatomica sulla determinazione della cinematica articolare. I risultati ottenuti hanno mostrato, per quel che riguarda la identificazione dei repere, che il metodo proposto migliora sia la precisione inter- che intraoperatore, rispetto alla palpazione convenzionale (Della Croce et al. 1999). E’ stato inoltre riscontrato un notevole miglioramento, rispetto ad altri protocolli (Charlton et al. 2004; Schwartz et al. 2004), nella ripetibilità della cinematica 3D di anca e ginocchio. Bisogna inoltre evidenziare che il protocollo è stato applicato da operatori non specializzati nell’identificazione dei repere anatomici. Grazie a questo miglioramento, la presenza di diversi operatori nel laboratorio non genera una riduzione di ripetibilità. Infine, il tempo richiesto per la procedura è drasticamente diminuito. Per una analisi che include la pelvi e i due arti inferiori, ad esempio, l’identificazione dei 16 repere caratteristici usando la calibrazione convenzionale richiede circa 15 minuti, mentre col nuovo metodo tra i 5 e i 10 minuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi si occupa della teoria delle ranking functions di W. Spohn, dottrina epistemologica il cui fine è dare una veste logica rigorosa ai concetti di causalità, legge di natura, spiegazione scientifica, a partire dalla nozione di credenza. Di tale teoria manca ancora una esposizione organica e unitaria e, soprattutto, formulata in linguaggio immediatamente accessibile. Nel mio lavoro, che si presenta come introduzione ad essa, è anche messa a raffronto con le teorie che maggiormente l’hanno influenzata o rispetto alle quali si pone come avversaria. Il PRIMO CAPITOLO si concentra sulla teoria di P. Gärdenfors, il più diretto predecessore e ispiratore di Spohn. Questo consente al lettore di acquisire familiarità con le nozioni di base della logica epistemica. La conoscenza, nella teoria del filosofo svedese, è concepita come processo di acquisizione ed espulsione di credenze, identificate con proposizioni, da un insieme. I tre maggiori fenomeni epistemici sono l’espansione, la revisione e la contrazione. Nel primo caso si immagazzina una proposizione in precedenza sconosciuta, nel secondo se ne espelle una a causa dell’acquisizione della sua contraddittoria, nel terzo si cancella una proposizione per amore di ipotesi e si investigano le conseguenze di tale cancellazione. Controparte linguistica di quest’ultimo fenomeno è la formulazione di un condizionale controfattuale. L’epistemologo, così come Gärdenfors concepisce il suo compito, è fondamentalmente un logico che deve specificare funzioni: vale a dire, le regole che deve rispettare ciascun passaggio da un insieme epistemico a un successivo per via di espansione, revisione e contrazione. Il SECONDO CAPITOLO tratta infine della teoria di Spohn, cercando di esporla in modo esauriente ma anche molto semplice. Anche in Spohn evidentemente il concetto fondamentale è quello di funzione: si tratta però in questo caso di quella regola di giudizio soggettivo che, a ciascuna credenza, identificata con una proposizione, associa un grado (un rank), espresso da un numero naturale positivo o dallo zero. Un rank è un grado di non-credenza (disbelief). Perché la non-credenza (che comporta un notevole appesantimento concettuale)? Perché le leggi della credenza così concepite presentano quella che Spohn chiama una “pervasiva analogia” rispetto alle leggi della probabilità (Spohn la chiama persino “armonia prestabilita” ed è un campo su cui sta ancora lavorando). Essenziale è il concetto di condizionalizzazione (analogo a quello di probabilità condizionale): a una credenza si associa un rank sulla base di (almeno) un’altra credenza. Grazie a tale concetto Spohn può formalizzare un fenomeno che a Gärdenfors sfugge, ossia la presenza di correlazioni interdoxastiche tra le credenze di un soggetto. Nella logica epistemica del predecessore, infatti, tutto si riduce all’inclusione o meno di una proposizione nell’insieme, non si considerano né gradi di credenza né l’idea che una credenza sia creduta sulla base di un’altra. Il TERZO CAPITOLO passa alla teoria della causalità di Spohn. Anche questa nozione è affrontata in prospettiva epistemica. Non ha senso, secondo Spohn, chiedersi quali siano i tratti “reali” della causalità “nel mondo”, occorre invece studiare che cosa accade quando si crede che tra due fatti o eventi sussista una correlazione causale. Anche quest’ultima è fatta oggetto di una formalizzazione logica rigorosa (e diversificata, infatti Spohn riconosce vari tipi di causa). Una causa “innalza lo status epistemico” dell’effetto: vale a dire, quest’ultimo è creduto con rank maggiore (ossia minore, se ci si concentra sulla non-credenza) se condizionalizzato sulla causa. Nello stesso capitolo espongo la teoria della causalità di Gärdenfors, che però è meno articolata e minata da alcuni errori. Il QUARTO CAPITOLO è tutto dedicato a David Lewis e alla sua teoria controfattuale della causalità, che è il maggiore avversario tanto di Spohn quanto di Gärdenfors. Secondo Lewis la migliore definizione di causa può essere data in termini controfattuali: la causa è un evento tale che, se non fosse accaduto, nemmeno l’effetto sarebbe accaduto. Naturalmente questo lo obbliga a specificare una teoria delle condizioni di verità di tale classe di enunciati che, andando contro i fatti per definizione, non possono essere paragonati alla realtà. Lewis ricorre allora alla dottrina dei mondi possibili e della loro somiglianza comparativa, concludendo che un controfattuale è vero se il mondo possibile in cui il suo antecedente e il suo conseguente sono veri è più simile al mondo attuale del controfattuale in cui il suo antecedente è vero e il conseguente è falso. Il QUINTO CAPITOLO mette a confronto la teoria di Lewis con quelle di Spohn e Gärdenfors. Quest’ultimo riduce i controfattuali a un fenomeno linguistico che segnala il processo epistemico di contrazione, trattato nel primo capitolo, rifiutando così completamente la dottrina dei mondi possibili. Spohn non affronta direttamente i controfattuali (in quanto a suo dire sovraccarichi di sottigliezze linguistiche di cui non vuole occuparsi – ha solo un abbozzo di teoria dei condizionali) ma dimostra che la sua teoria è superiore a quella di Lewis perché riesce a rendere conto, con estrema esattezza, di casi problematici di causalità che sfuggono alla formulazione controfattuale. Si tratta di quei casi in cui sono in gioco, rafforzandosi a vicenda o “concorrendo” allo stesso effetto, più fattori causali (casi noti nella letteratura come preemption, trumping etc.). Spohn riesce a renderne conto proprio perché ha a disposizione i rank numerici, che consentono un’analisi secondo cui a ciascun fattore causale è assegnato un preciso ruolo quantitativamente espresso, mentre la dottrina controfattuale è incapace di operare simili distinzioni (un controfattuale infatti è vero o falso, senza gradazioni). Il SESTO CAPITOLO si concentra sui modelli di spiegazione scientifica di Hempel e Salmon, e sulla nozione di causalità sviluppata da quest’ultimo, mettendo in luce soprattutto il ruolo (problematico) delle leggi di natura e degli enunciati controfattuali (a questo proposito sono prese in considerazione anche le famose critiche di Goodman e Chisholm). Proprio dalla riflessione su questi modelli infatti è scaturita la teoria di Gärdenfors, e tanto la dottrina del filosofo svedese quanto quella di Spohn possono essere viste come finalizzate a rendere conto della spiegazione scientifica confrontandosi con questi modelli meno recenti. Il SETTIMO CAPITOLO si concentra sull’analisi che la logica epistemica fornisce delle leggi di natura, che nel capitolo precedente sono ovviamente emerse come elemento fondamentale della spiegazione scientifica. Secondo Spohn le leggi sono innanzitutto proposizioni generali affermative, che sono credute in modo speciale. In primo luogo sono credute persistentemente, vale a dire, non sono mai messe in dubbio (tanto che se si incappa in una loro contro-istanza si va alla ricerca di una violazione della normalità che la giustifichi). In secondo luogo, guidano e fondano la credenza in altre credenze specifiche, che sono su di esse condizionalizzate (si riprendono, con nuovo rigore logico, le vecchie idee di Wittgenstein e di Ramsey e il concetto di legge come inference ticket). In terzo luogo sono generalizzazioni ricavate induttivamente: sono oggettivazioni di schemi induttivi. Questo capitolo si sofferma anche sulla teoria di legge offerta da Gärdenfors (analoga ma embrionale) e sull’analisi che Spohn fornisce della nozione di clausola ceteris paribus. L’OTTAVO CAPITOLO termina l’analisi cominciata con il sesto, considerando finalmente il modello epistemico della spiegazione scientifica. Si comincia dal modello di Gärdenfors, che si mostra essere minato da alcuni errori o comunque caratterizzato in modo non sufficientemente chiaro (soprattutto perché non fa ricorso, stranamente, al concetto di legge). Segue il modello di Spohn; secondo Spohn le spiegazioni scientifiche sono caratterizzate dal fatto che forniscono (o sono finalizzate a fornire) ragioni stabili, vale a dire, riconducono determinati fenomeni alle loro cause e tali cause sono credute in modo persistente. Con una dimostrazione logica molto dettagliata e di acutezza sorprendente Spohn argomenta che simili ragioni, nel lungo periodo, devono essere incontrate. La sua quindi non è solo una teoria della spiegazione scientifica che elabori un modello epistemico di che cosa succede quando un fenomeno è spiegato, ma anche una teoria dello sviluppo della scienza in generale, che incoraggia a perseguire la ricerca delle cause come necessariamente coronata da successo. Le OSSERVAZIONI CONCLUSIVE fanno il punto sulle teorie esposte e sul loro raffronto. E’ riconosciuta la superiorità della teoria di Spohn, di cui si mostra anche che raccoglie in pieno l’eredità costruttiva di Hume, al quale gli avversari si rifanno costantemente ma in modo frammentario. Si analizzano poi gli elementi delle teorie di Hempel e Salmon che hanno precorso l’impostazione epistemica. La teoria di Spohn non è esente però da alcuni punti ancora problematici. Innanzitutto, il ruolo della verità; in un primo tempo Spohn sembra rinunciare, come fa esplicitamente il suo predecessore, a trattare la verità, salvo poi invocarla quando si pone il grave problema dell’oggettivazione delle ranking functions (il problema si presenta poiché di esse inizialmente si dice che sono regole soggettive di giudizio e poi si identificano in parte con le leggi di natura). C’è poi la dottrina dei gradi di credenza che Spohn dice presentarsi “unitamente alle proposizioni” e che costituisce un inutile distacco dal realismo psicologico (critica consueta alla teoria): basterebbe osservare che i gradi di credenza sono ricavati o per condizionalizzazione automatica sulla base del tipo di fonte da cui una proposizione proviene, o per paragone immaginario con altre fonti (la maggiore o minore credenza infatti è un concetto relazionale: si crede di più o di meno “sulla base di…” o “rispetto a…”). Anche la trattazione delle leggi di natura è problematica; Spohn sostiene che sono ranking functions: a mio avviso invece esse concorrono a regole di giudizio, che prescrivono di impiegare le leggi stesse per valutare proposizioni o aspettative. Una legge di natura è un ingranaggio, per così dire, di una valutazione di certezza ma non si identifica totalmente con una legge di giudizio. I tre criteri che Spohn individua per distinguere le leggi poi non sono rispettati da tutte e sole le leggi stesse: la generalizzazione induttiva può anche dare adito a pregiudizi, e non di tutte le leggi si sono viste, individualmente, istanze ripetute tanto da giustificarle induttivamente. Infine, un episodio reale di storia della scienza come la scoperta della sintesi dell’urea da parte di F. Wöhler (1828 – ottenendo carbammide, organico, da due sostanze inorganiche, dimostra che non è vera la legge di natura fini a quel momento presunta tale secondo cui “sostanze organiche non possono essere ricavate da sostanze inorganiche”) è indice che le leggi di natura non sono sempre credute in modo persistente, cosicché per comprendere il momento della scoperta è pur sempre necessario rifarsi a una teoria di tipo popperiano, rispetto alla quale Spohn presenta invece la propria in assoluta antitesi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nell’ambito dell’ingegneria dei tessuti, la possibilità di rigenerazione del miocardio post-infartuale è un argomento “caldo”, che suscita grandi speranze ma solleva altrettanto grandi interrogativi - sostenuti dal sussistere di dubbi di base sulle scelte operative praticabili. Esiste tuttavia concordanza nel considerare fondamentale l’utilizzo di un “supporto” che possa mantenere nella sede peri-infartuale le cellule competenti. Infatti, la semplice iniezione di cellule staminali per via endovenosa o direttamente nell’area infartuata non si è dimostrata particolarmente efficace, soprattutto a causa della cospicua perdita cellulare che si verifica rapidamente dopo il trapianto. Ci si orienta quindi verso la strategia di seminare cellule in grado di transdifferenziare in senso muscolare cardiaco su un materiale biocompatibile in vitro e di impiantare successivamente il costrutto ottenuto in vivo dove ci si attende il riassorbimento del biomateriale e l’integrazione delle cellule. Tuttavia, mentre in altri settori della medicina - quali ortopedia e dermatologia - l’impiego di pseudotessuti ingegnerizzati ha già permesso di conseguire ottimi risultati nella rigenerazione di tessuti danneggiati, allo stato attuale, i progressi ottenuti nell’ambito della rigenerazione del miocardio infartuato appaiono ancora aneddotici e distanti dall’ottenere protocolli condivisi per l’impiego in clinica. Il lavoro presentato in questa ricerca, condotto grazie alla sinergia di competenze interdisciplinari negli ambiti chimico, biologico e dell’ingegneria biomedica meccanica ed elettronica, è uno studio di fattibilità di una metodica standardizzata in grado di indirizzare cellule staminali mesenchimali (MSCs) indifferenziate verso l’acquisizione in vitro di caratteri fenotipici confrontabili con quelli delle cellule muscolari cardiache attraverso il paradigma della coltura dinamica in bioreattore. Il prototipo di bioreattore impiegato, in quanto sviluppato originalmente nel corso di questa attività di ricerca, presenta rispetto ad altri strumenti descritti l’innovazione e il vantaggio di non richiedere l’utilizzo di un incubatore, in quanto esso stesso permette di coltivare cellule al suo interno in condizioni controllate di temperatura, pH e concentrazione di CO2. La sua flessibilità operativa consente di impostare e controllare da personal computer leggi di moto di qualsiasi forma anche con cicliche molto veloci. Infine, la presenza di estensimetri in grado di misurare finemente la variazione di tensione esercitata sulla matrice polimerica utilizzata, posta in trazione tra due afferraggi, permette di applicare nel tempo una forza di stiramento costante, ottenendo deformazioni controllate e risultati riproducibili in termini di modificazioni cellulari. Il superamento delle problematiche sorte durante la fase di messa a punto del sistema, che deve essere ritenuto parte integrante del lavoro di sviluppo condotto, ha permesso di studiare l’adattamento di MSCs allo stiramento ciclico, mostrando che questo effettivamente determina alcune differenze fenotipiche rispetto al controllo statico. Inoltre le cellule hanno acquistato una disposizione orientata lungo l’asse longitudinale delle fibre, dato questo particolarmente importante se si considera la disposizione ordinata delle cellule del miocardio, le quali costituiscono un vero e proprio sincizio, indispensabile per una diffusione sincrona dell’impulso elettrico di contrazione. La creazione di uno pseudotessuto cardiaco ottimale richiederà ovviamente ulteriore lavoro, ma la metodica qui presentata si propone al tempo stesso come uno strumento di studio e come una strategia operativa per un approccio innovativo e standardizzabile alla medicina rigenerativa del miocardio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Tutte le scuole di pensiero economico riconoscono l’importanza dell’attività di ricerca e sviluppo per rafforzare la competitività delle imprese, e per promuovere quindi la crescita economica di lungo periodo di ogni paese. Si tratta di un tema di indiscussa rilevanza, e ben presente nel dibattito politico ed economico a livello nazionale ed internazionale. A partire dal fondamentale lavoro di Solow (1957), molti studi si sono interessati al ruolo centrale che il cambiamento tecnologico ha nella crescita economica, contribuendo ad una vasta letteratura riguardante il rapporto tra il capitale tecnologico, o gli investimenti in ricerca e sviluppo, e la crescita della produttività. In questo contesto, il presente lavoro ha come obiettivo l’analisi degli effetti degli investimenti in ricerca e sviluppo sulla produttività delle imprese manifatturiere e del settore agroalimentare italiano. L’industria agroalimentare italiana è caratterizzata da alcuni elementi specifici, che ne rendono lo studio particolarmente interessante: il suo necessario confrontarsi con le pressioni provenienti dall’emergere di nuove tendenze comportamentali del consumatore, da un lato e, dall’altro, dalla radicale trasformazione del sistema produttivo, commerciale e distributivo, che a sua volta si interfaccia con il processo di globalizzazione che interessa l’intera economia mondiale. Il settore agroalimentare riveste nel nostro Paese una notevole importanza sia in termini di fatturato, che per numero di imprese, che di occupazione, e risulta tipicamente caratterizzato dalla predominanza, dal punto di vista numerico, della classe dimensionale delle piccole imprese. È chiaro che acquisire competitività su mercati ormai globali presuppone costanti sforzi negli investimenti in ricerca ed innovazione; tuttavia, a questo proposito, le performances italiane risultano essere inferiori alla media europea. È proprio alla luce di queste considerazioni che uno studio sul ruolo che gli investimenti in ricerca e sviluppo rivestono nel sistema agroalimentare italiano, in rapporto a quanto avviene per l’intero settore manifatturiero, riveste quindi un particolare interesse.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The relationship between emotion and cognition is a topic that raises great interest in research. Recently, a view of these two processes as interactive and mutually influencing each other has become predominant. This dissertation investigates the reciprocal influences of emotion and cognition, both at behavioral and neural level, in two specific fields, such as attention and decision-making. Experimental evidence on how emotional responses may affect perceptual and attentional processes has been reported. In addition, the impact of three factors, such as personality traits, motivational needs and social context, in modulating the influence that emotion exerts on perception and attention has been investigated. Moreover, the influence of cognition on emotional responses in decision-making has been demonstrated. The current experimental evidence showed that cognitive brain regions such as the dorsolateral prefrontal cortex are causally implicated in regulation of emotional responses and that this has an effect at both pre and post decisional stages. There are two main conclusions of this dissertation: firstly, emotion exerts a strong influence on perceptual and attentional processes but, at the same time, this influence may also be modulated by other factors internal and external to the individuals. Secondly, cognitive processes may modulate emotional prepotent responses, by serving a regulative function critical to driving and shaping human behavior in line with current goals.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il caso studio si sviluppa nel quartiere di Corticella (BO) dove è presente un piano PEEP del 1970. Oggetto della tesi è l’edificio in via Byron 10-22. Il lavoro svolto si propone di analizzare la fattibilità di riqualificazione energetica ed architettonica di questo edificio di edilizia residenziale pubblica. Le soluzioni escogitate nel presente progetto si rifanno alla metodologia attuata da un’ESCO secondo le direttive nazionali ed europee che hanno due obiettivi principali: il primo consiste nel trovare una soluzione ai problemi di tipo finanziario e nell’apportare un utile per l’azienda; il secondo mira a un ritorno economico in termini di risparmio di energia per l’utente, per via del miglioramento delle prestazioni energetiche dell’unità abitativa. La metodologia seguita è stata strutturata per fasi successive. In primo luogo si è condotta una ricerca storica sul contesto urbano in cui è inserita l’unità edilizia presa in esame, nonché sul quadro normativo di riferimento e sul metodo di intervento di un’ESCO. In secondo luogo è stata effettuata un’indagine sul confort abitativo tramite questionario. Infine è stato realizzato uno studio sui consumi e sui possibili risparmi a livello energetico ed economico, scegliendo quindi la soluzione di intervento più appropriata. Lo studio non si è però soffermato solo sulla metodologia attuata da un’ESCO: si sono infatti apportati dei miglioramenti architettonici attraverso un’operazione di trasformazione della facciata in prima istanza e, successivamente, mediante un intervenuto sulla copertura, il cui obiettivo era quello di fornire ai condomini uno spazio comune maggiore.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Intento della tesi è fornire una soluzione progettuale capace di comprendere e valorizzare i vuoti urbani che caratterizzano la città di Berlino comprendendone la genesi e l'evoluzione. La fase di analisi ha portato all'individuazione di un isolato, l’Holzuferblock, caratterizzato da tutte le peculiarità dei vuoti urbani berlinesi. Questo isolato, nonostante si presenti particolarmente frammentato e privo di identità, ha in sé tutte le caratteristiche per incentivare fenomeni di riappropriazione dei luoghi: la presenza di un edificio industriale abbandonato, la vicinanza del fiume e la presenza di resti del sistema di difesa del Muro. Cogliendo nei numerosi frammenti presenti nell’area un valore anziché una criticità, il progetto ha portato alla definizione di un “recinto” residenziale in grado di valorizzare i vuoti urbani e i frammenti presenti, tra cui la Eisfabrik, l’ex fabbrica del ghiaccio ormai abbandonata. Individuando nella fabbrica un potenziale catalizzatore urbano in grado di innescare la rivitalizzazione dell’area, è stato progettato un sistema di supporto in grado di lavorare in sinergia con essa, costituendo un sistema unitario. Il limite che definisce il vuoto è costituito da un sistema di blocchi residenziali che, reinterpretando il blocco urbano berlinese, concretizzano l’eterogeneità e la diversità tipiche dell’area.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

"Pochi autori come il Tasso hanno suscitato interpretazioni tanto differenziate e, in molti casi, discordanti. Posto di volta in volta a chiusura di un'epoca, quella manieristica, o come anticipatore della successiva temperie barocca, egli pare aver scontato il prezzo di un'esemplarità sin troppo manifesta rispetto al proprio Zeitgeist, una stagione che vede, nella vulgata storiografica, la regola prevalere sull'afflato creativo. 'Era già critico prima di esser poeta', sentenziò il De Sanctis, che arrivava a circoscriverne pure l'esperienza biografica nel perimetro di un implacabile autodafé, definendolo 'più crudele inquisitore di sé che il tribunale dell'Inquisizione'. A ciò poi si aggiungeva l'estrinsecità della corte quale destinataria e quasi principio informativo del mondo tassiano, che sembrava legittimare, da Croce in avanti, tutta una serie di giudizi limitativi sulla sua poesia, orientati ad accentuarne la natura encomiastica, aneddotica, addirittura frivola. La critica più recente ha compiuto un'imponente e fondamentale opera di scavo all'interno della cultura tassiana, delle sue letture, della sua poetica, ma il tentativo di rettificare il profilo complessivo dell'autore mostra esiti ancora incerti. In risposta alla vecchia immagine di un Tasso sconfitto dalla cultura controriformistica e alla fine assoggettato alle sue leggi, se ne sono di recente aggiunte altre..." (Dall'introduzione)