1000 resultados para Angiogenesi, modello matematico


Relevância:

20.00% 20.00%

Publicador:

Resumo:

The relevance of human joint models has been shown in the literature. They can help in diagnosis, in prostheses and ortheses design and in predicting the joints’ behavior. Recently a sequential approach for the modeling of the human diarthrodial joints composed of three steps has been proposed. At each step the role of some anatomical structures is considered. Starting from a limited number of structures, the model gets more and more sophisticated until all the components, both passive (articular surfaces, ligaments and tendons) and active (muscles), are incorporated in the final model. According to this procedure, the behavior of the human ankle during passive motion (no loads applied) has been previously modeled by a one degree of freedom 5-5 fully parallel mechanism. Starting from this model, the kinetostatic model of the human ankle joint that replicates its behavior when external loads are applied is developed. The anatomical and mechanical characteristics and the role of the passive structures are considered; a multifiber model is developed and an optimization criteria based on experimental data is proposed. Finally an application of the developed model to an amputated ankle is presented, together with the results obtained from the optimization of the geometrical and mechanical Parameters. Although some improvements can be achieved, the model is satisfactorily able to replicate the behavior of the human ankle subject to the anterior drawer and the inversion clinical tests applied in the neutral position.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

In the Nineties year in the German Studies’ area appears a new reflection around the theatrical chorus thank to the activity of theatrical personalities as Heiner Müller, Einar Schleef, Elfriede Jelinek or Christoph Marthaler. So Hans Thies Lehmann, in his compendium about the Postdramatic Theater (Hans-Thies Lehmann, Postdramatisches Theater, Verlag der Autoren, Frankfurt am Main 1999) advances the new category of the Chortheater (Chor Theatre) to explain e new form of drama and performative event; again in 1999 appear the important essay of Detlev Baur (Detlev Baur, Der Chor im Theater des 20. Jahrhunderts. Typologie des theatralen Mittels Chor, Niemeyer, Tübingen 1999), that gives an important device about this instrument but without giving the reasons of the its modifications in such different historical times. Then in 2004, Erika Fischer-Lichte, (Theatre, Sacrifice, Ritual. Exploring Forms of Political Theatre, Routledge, London-New York 2005), reflects about the connection between ritual and theatre in the 20th Century. Thank to this studies the search aim was to give a new story of the chorus as theatrical and performative tool, in his liminal essence in creating immersive or alienating theatrical relation with the audience and to give specific features to distinguish it from general categories such as choral theatre o ensemble theatre.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La tesi individua alcune strategie di rigenerazione urbana e di riqualificazione edilizia, al fine di ottenere una serie di linee guida per l’intervento sul patrimonio di edilizia abitativa situata nelle periferie urbane. Tali principi sono stati poi applicati ad un edificio ACER collocato nella prima periferia di Forlì, per sperimentare l’efficacia delle strategie individuate. Dalla ricerca svolta sulle strategie di intervento volte alla riqualificazione sociale delle periferie, in particolare la teoria del “Defencible space” di Jacobs, si evidenzia l’importanza di accentuare nei residenti il sentimento di territorialità, ovvero la consapevolezza di far parte di una comunità specifica insediata in un particolare spazio, alimentata attraverso la frequentazione e l’appropriazione percettivo-funzionale degli spazi pubblici. Si è deciso quindi di allargare il campo di intervento alla rigenerazione dell’interno comparto, attraverso la riorganizzazione degli spazi verdi e la dotazione di attrezzature sportive e ricreative, in modo da offrire spazi specifici per le diverse utenze (anziani, giovani, bambini) e la definizione di un programma funzionale di servizi ricreativi e spazi destinati a piccolo commercio per integrare le dotazioni carenti dell’area. Dall’analisi approfondita dell’edificio sono emerse le criticità maggiori su cui intervenire: - l’intersezione dei percorsi di accesso all’edificio - la struttura portante rigida, non modificabile - la scarsa varietà tipologica degli alloggi - l’elevato fabbisogno energetico. La riqualificazione dell’edificio ha toccato quindi differenti campi: tecnologico, funzionale, energetico e sociale; il progetto è stato strutturato come una serie di fasi successive di intervento, eventualmente realizzabili in tempi diversi, in modo da consentire il raggiungimento di diversi obiettivi di qualità, in funzione della priorità data alle diverse esigenze. Secondo quest’ottica, il primo grado di intervento, la fase 1 - riqualificazione energetica, si limita all’adeguamento dello stato attuale alle prestazioni energetiche richieste dalla normativa vigente, in assenza di adeguamenti tipologici e spaziali. La fase 2 propone la sostituzione degli impianti di riscaldamento a caldaie autonome presenti attualmente con un impianto centralizzato con pompa di calore, un intervento invasivo che rende necessaria la realizzazione di un “involucro polifunzionale” che avvolge completamente l’edificio. Questo intervento nasce da tre necessità fondamentali : - architettonica: poter ampliare verso l’esterno le superfici degli alloggi, così da intervenire sulle unità abitative rendendole più rispondenti alle necessità odierne; - statica: non dover gravare in ciò sull’edificio esistente apportando ulteriori carichi, difficilmente sopportabili dalla struttura esistente, assicurando il rispetto della normativa antisismica in vigore; - impiantistica/tecnologica: alloggiare i condotti del nuovo impianto centralizzato per il riscaldamento, raffrescamento e acs; La fase 3 è invece incentrata sull’ampliamento dell’offerta abitativa, in modo da rispondere anche a necessità legate ad utenze speciali, come utenti disabili o anziani. L’addizione di nuovi volumi si sviluppa in tre direzioni: - un volume parassita, che aderisce all’edificio nel fronte sud/est, indipendente dal punto di vista strutturale, ruotato per sfruttare al meglio l’orientamento ottimale. - un volume satellite, indipendente, connesso all’edificio esistente tramite un elemento di raccordo, e nel quale sono collocati alcuni alloggi speciali. - un’addizione in copertura, che non appoggia direttamente sul solaio di copertura esistente, ma grava sull’elemento di chiusura del’involucro realizzato nella fase 2 Completano il progetto le addizioni volumetriche a piano terra, destinate a servizi quali un centro diurno, un micronido e un bar, i quali costituiscono la traduzione alla scala dell’edificio delle strategie applicate nel progetto di comparto. Questi interventi hanno consentito di trasformare un edificio costruito negli anni ’80 in un complesso residenziale moderno, dotato spazi accessori di grande qualità, tecnologie moderne che ne garantiscono il comfort abitativo, servizi alla persona disponibili in prossimità dell’edificio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Total ankle arthroplasty (TAA) is still not as satisfactory as total hip and total knee arthroplasty. For the TAA to be considered a valuable alternative to ankle arthrodesis, an effective range of ankle mobility must be recovered. The disappointing clinical results of the current generation of TAA are mostly related to poor understanding of the structures guiding ankle joint mobility. A new design (BOX Ankle) has been developed, uniquely able to restore physiologic ankle mobility and a natural relationship between the implanted components and the retained ligaments. For the first time the shapes of the tibial and talar components in the sagittal plane were designed to be compatible with the demonstrated ligament isometric rotation. This resulted in an unique motion at the replaced ankle where natural sliding as well as rolling motion occurs while at the same time full conformity is maintained between the three components throughout the flexion arc. According to prior research, the design features a spherical convex tibial component, a talar component with radius of curvature in the sagittal plane longer than that of the natural talus, and a fully conforming meniscal component. After computer-based modelling and preliminary observations in several trial implantation in specimens, 126 patients were implanted in the period July 2003 – December 2008. 75 patients with at least 6 months follow-up are here reported. Mean age was 62,6 years (range 22 – 80), mean follow-up 20,2 months. The AOFAS clinical score systems were used to assess patient outcome. Radiographs at maximal dorsiflexion and maximal plantar flexion confirmed the meniscalbearing component moves anteriorly during dorsiflexion and posteriorly during plantarflexion. Frontal and lateral radiographs in the patients, show good alignment of the components, and no signs of radiolucency or loosening. The mean AOFAS score was observed to go from 41 pre-op to 74,6 at 6 month follow-up, with further improvement at the following follow-up. These early results reveal satisfactory clinical scores, with good recovery of range of motion and reduction of pain. Radiographic assessment reveals good osteointegration. All these preliminary results confirm biomechanical studies and the validity of this novel ligamentcompatible prosthesis design. Surely it will be important to re-evaluate these patients later.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The present study was performed to validate a spatial working memory task using pharmacological manipulations. The water escape T-maze, which combines the advantages of the Morris water maze and the T-maze while minimizes the disadvantages, was used. Scopolamine, a drug that affects cognitive function in spatial working memory tasks, significantly decreased the rat performance in the present delayed alternation task. Since glutamate neurotransmission plays an important role in the maintaining of working memory, we evaluated the effect of ionotropic and metabotropic glutamatergic receptors antagonists, administered alone or in combination, on rat behaviour. As the acquisition and performance of memory tasks has been linked to the expression of the immediately early gene cFos, a marker of neuronal activation, we also investigated the neurochemical correlates of the water escape T-maze after pharmacological treatment with glutamatergic antagonists, in various brain areas. Moreover, we focused our attention on the involvement of perirhinal cortex glutamatergic neurotransmission in the acquisition and/or consolidation of this particular task. The perirhinal cortex has strong and reciprocal connections with both specific cortical sensory areas and some memory-related structures, including the hippocampal formation and amygdala. For its peculiar position, perirhinal cortex has been recently regarded as a key region in working memory processes, in particular in providing temporary maintenance of information. The effect of perirhinal cortex lesions with ibotenic acid on the acquisition and consolidation of the water escape T-maze task was evaluated. In conclusion, our data suggest that the water escape T-maze could be considered a valid, simple and quite fast method to assess spatial working memory, sensible to pharmacological manipulations. Following execution of the task, we observed cFos expression in several brain regions. Furthermore, in accordance to literature, our results suggest that glutamatergic neurotransmission plays an important role in the acquisition and consolidation of working memory processes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Si analizza il modello di Fister-Panetta per la crescita di cellule tumorali nella fase avascolare del tumore e si propone un percorso didattico di introduzione alla modellistica matematica in una quinta liceo. Si riporta poi una riflessione sulle motivazioni per cui l'introduzione degli aspetti modellistici e applicativi della matematica è importante anche nella scuola superiore.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Il presente studio, per ciò che concerne la prima parte della ricerca, si propone di fornire un’analisi che ripercorra il pensiero teorico e la pratica critica di Louis Marin, mettendone in rilievo i caratteri salienti affinché si possa verificare se, nella loro eterogenea interdisciplinarità, non emerga un profilo unitario che consenta di ricomprenderli in un qualche paradigma estetico moderno e/o contemporaneo. Va innanzitutto rilevato che la formazione intellettuale di Marin è avvenuta nell’alveo di quel montante e pervasivo interesse che lo strutturalismo di stampo linguistico seppe suscitare nelle scienze sociali degli anni sessanta. Si è cercato, allora, prima di misurare la distanza che separa l’approccio di Marin ai testi da quello praticato dalla semiotica greimasiana, impostasi in Francia come modello dominante di quella svolta semiotica che ha interessato in quegli anni diverse discipline: dagli studi estetici all’antropologia, dalla psicanalisi alla filosofia. Si è proceduto, quindi, ad un confronto tra l’apparato concettuale elaborato dalla semiotica e alcune celebri analisi del nostro autore – tratte soprattutto da Opacité de la peinture e De la représentation. Seppure Marin non abbia mai articolato sistematicametne i principi teorici che esplicitassero la sua decisa contrapposizione al potente modello greimasiano, tuttavia le reiterate riflessioni intorno ai presupposti epistemologici del proprio modo di interpretare i testi – nonché le analisi di opere pittoriche, narrative e teoriche che ci ha lasciato in centinaia di studi – permettono di definirne una concezione estetica nettamente distinta dalla pratica semio-semantica della scuola di A. J. Greimas. Da questo confronto risulterà, piuttosto, che è il pensiero di un linguista sui generis come E. Benveniste ad avere fecondato le riflessioni di Marin il quale, d’altra parte, ha saputo rielaborare originalmente i contributi fondamentali che Benveniste diede alla costruzione della teoria dell’enunciazione linguistica. Impostando l’equazione: enunciazione linguistica=rappresentazione visiva (in senso lato), Marin diviene l’inventore del dispositivo concettuale e operativo che consentirà di analizzare l’enunciazione visiva: la superficie di rappresentazione, la cornice, lo sguardo, l’iscrizione, il gesto, lo specchio, lo schema prospettico, il trompe-l’oeil, sono solo alcune delle figure in cui Marin vede tradotto – ma in realtà immagina ex novo – quei dispositivi enunciazionali che il linguista aveva individuato alla base della parole come messa in funzione della langue. Marin ha saputo così interpretare, in modo convincente, le opere e i testi della cultura francese del XVII secolo alla quale sono dedicati buona parte dei suoi studi: dai pittori del classicismo (Poussin, Le Brun, de Champaigne, ecc.) agli eruditi della cerchia di Luigi XIV, dai filosofi (soprattutto Pascal), grammatici e logici di Port-Royal alle favole di La Fontaine e Perrault. Ma, come si evince soprattutto da testi come Opacité de la peinture, Marin risulterà anche un grande interprete del rinascimento italiano. In secondo luogo si è cercato di interpretare Le portrait du Roi, il testo forse più celebre dell’autore, sulla scorta dell’ontologia dell’immagine che Gadamer elabora nel suo Verità e metodo, non certo per praticare una riduzione acritica di due concezioni che partono da presupposti divergenti – lo strutturalismo e la critica d’arte da una parte, l’ermeneutica filosofica dall’altra – ma per rilevare che entrambi ricorrono al concetto di rappresentazione intendendolo non tanto come mimesis ma soprattutto, per usare il termine di Gadamer, come repraesentatio. Sia Gadamer che Marin concepiscono la rappresentazione non solo come sostituzione mimetica del rappresentato – cioè nella direzione univoca che dal rappresentato conduce all’immagine – ma anche come originaria duplicazione di esso, la quale conferisce al rappresentato la sua legittimazione, la sua ragione o il suo incremento d’essere. Nella rappresentazione in quanto capace di legittimare il rappresentato – di cui pure è la raffigurazione – abbiamo così rintracciato la cifra comune tra l’estetica di Marin e l’ontologia dell’immagine di Gadamer. Infine, ci è sembrato di poter ricondurre la teoria della rappresentazione di Marin all’interno del paradigma estetico elaborato da Kant nella sua terza Critica. Sebbene manchino in Marin espliciti riferimenti in tal senso, la sua teoria della rappresentazione – in quanto dire che mostra se stesso nel momento in cui dice qualcos’altro – può essere intesa come una riflessione estetica che trova nel sensibile la sua condizione trascendentale di significazione. In particolare, le riflessioni kantiane sul sentimento di sublime – a cui abbiamo dedicato una lunga disamina – ci sono sembrate chiarificatrici della dinamica a cui è sottoposta la relazione tra rappresentazione e rappresentato nella concezione di Marin. L’assolutamente grande e potente come tratti distintivi del sublime discusso da Kant, sono stati da noi considerati solo nella misura in cui ci permettevano di fare emergere la rappresentazione della grandezza e del potere assoluto del monarca (Luigi XIV) come potere conferitogli da una rappresentazione estetico-politica costruita ad arte. Ma sono piuttosto le facoltà in gioco nella nostra più comune esperienza delle grandezze, e che il sublime matematico mette esemplarmente in mostra – la valutazione estetica e l’immaginazione – ad averci fornito la chiave interpretativa per comprendere ciò che Marin ripete in più luoghi citando Pascal: una città, da lontano, è una città ma appena mi avvicino sono case, alberi, erba, insetti, ecc… Così abbiamo applicato i concetti emersi nella discussione sul sublime al rapporto tra la rappresentazione e il visibile rappresentato: rapporto che non smette, per Marin, di riconfigurarsi sempre di nuovo. Nella seconda parte della tesi, quella dedicata all’opera di Bernard Stiegler, il problema della comprensione delle immagini è stato affrontato solo dopo aver posto e discusso la tesi che la tecnica, lungi dall’essere un portato accidentale e sussidiario dell’uomo – solitamente supposto anche da chi ne riconosce la pervasività e ne coglie il cogente condizionamento – deve invece essere compresa proprio come la condizione costitutiva della sua stessa umanità. Tesi che, forse, poteva essere tematizzata in tutta la sua portata solo da un pensatore testimone delle invenzioni tecnico-tecnologiche del nostro tempo e del conseguente e radicale disorientamento a cui esse ci costringono. Per chiarire la propria concezione della tecnica, nel I volume di La technique et le temps – opera alla quale, soprattutto, sarà dedicato il nostro studio – Stiegler decide di riprendere il problema da dove lo aveva lasciato Heidegger con La questione della tecnica: se volgiamo coglierne l’essenza non è più possibile pensarla come un insieme di mezzi prodotti dalla creatività umana secondo un certi fini, cioè strumentalmente, ma come un modo di dis-velamento della verità dell’essere. Posto così il problema, e dopo aver mostrato come i sistemi tecnici tendano ad evolversi in base a tendenze loro proprie che in buona parte prescindono dall’inventività umana (qui il riferimento è ad autori come F. Gille e G. Simondon), Stiegler si impegna a riprendere e discutere i contributi di A. Leroi-Gourhan. È noto come per il paletnologo l’uomo sia cominciato dai piedi, cioè dall’assunzione della posizione eretta, la quale gli avrebbe permesso di liberare le mani prima destinate alla deambulazione e di sviluppare anatomicamente la faccia e la volta cranica quali ondizioni per l’insorgenza di quelle capacità tecniche e linguistiche che lo contraddistinguono. Dei risultati conseguiti da Leroi-Gourhan e consegnati soprattutto in Le geste et la parole, Stiegler accoglie soprattutto l’idea che l’uomo si vada definendo attraverso un processo – ancora in atto – che inizia col primo gesto di esteriorizzazione dell’esperienza umana nell’oggetto tecnico. Col che è già posta, per Stiegler, anche la prima forma di simbolizzazione e di rapporto al tempo che lo caratterizzano ancora oggi. Esteriorità e interiorità dell’uomo sono, per Stiegler, transduttive, cioè si originano ed evolvono insieme. Riprendendo, in seguito, l’anti-antropologia filosofica sviluppata da Heidegger nell’analitica esistenziale di Essere e tempo, Stiegler dimostra che, se si vuole cogliere l’effettività della condizione dell’esistenza umana, è necessaria un’analisi degli oggetti tecnici che però Heidegger relega nella sfera dell’intramondano e dunque esclude dalla temporalità autentica dell’esser-ci. Se è vero che l’uomo – o il chi, come lo chiama Stiegler per distinguerlo dal che-cosa tecnico – trova nell’essere-nel-mondo la sua prima e più fattiva possibilità d’essere, è altrettanto verò che questo mondo ereditato da altri è già strutturato tecnicamente, è già saturo della temporalità depositata nelle protesi tecniche nelle quali l’uomo si esteriorizza, e nelle quali soltanto, quindi, può trovare quelle possibilità im-proprie e condivise (perché tramandate e impersonali) a partire dalle quali poter progettare la propria individuazione nel tempo. Nel percorso di lettura che abbiamo seguito per il II e III volume de La technique et le temps, l’autore è impegnato innanzitutto in una polemica serrata con le analisi fenomenologiche che Husserl sviluppa intorno alla coscienza interna del tempo. Questa fenomenologia del tempo, prendendo ad esame un oggetto temporale – ad esempio una melodia – giunge ad opporre ricordo primario (ritenzione) e ricordo secondario (rimemorazione) sulla base dell’apporto percettivo e immaginativo della coscienza nella costituzione del fenomeno temporale. In questo modo Husserl si preclude la possibilità di cogliere il contributo che l’oggetto tecnico – ad esempio la registrazione analogica di una melodia – dà alla costituzione del flusso temporale. Anzi, Husserl esclude esplicitamente che una qualsiasi coscienza d’immagine – termine al quale Stiegler fa corrispondere quello di ricordo terziario: un testo scritto, una registrazione, un’immagine, un’opera, un qualsiasi supporto memonico trascendente la coscienza – possa rientrare nella dimensione origianaria e costitutiva di tempo. In essa può trovar posto solo la coscienza con i suo vissuti temporali percepiti, ritenuti o ricordati (rimemorati). Dopo un’attenta rilettura del testo husserliano, abbiamo seguito Stiegler passo a passo nel percorso di legittimazione dell’oggetto tecnico quale condizione costitutiva dell’esperienza temporale, mostrando come le tecniche di registrazione analogica di un oggetto temporale modifichino, in tutta evidenza, il flusso ritentivo della coscienza – che Husserl aveva supposto automatico e necessitante – e con ciò regolino, conseguente, la reciproca permeabilità tra ricordo primario e secondario. L’interpretazione tecnica di alcuni oggetti temporali – una foto, la sequenza di un film – e delle possibilità dispiegate da alcuni dispositivi tecnologici – la programmazione e la diffusione audiovisiva in diretta, l’immagine analogico-digitale – concludono questo lavoro richiamando l’attenzione sia sull’evidenza prodotta da tali esperienze – evidenza tutta tecnica e trascendente la coscienza – sia sul sapere tecnico dell’uomo quale condizione – trascendentale e fattuale al tempo stesso – per la comprensione delle immagini e di ogni oggetto temporale in generale. Prendendo dunque le mosse da una riflessione, quella di Marin, che si muove all’interno di una sostanziale antropologia filosofica preoccupata di reperire, nell’uomo, le condizioni di possibilità per la comprensione delle immagini come rappresentazioni – condizione che verrà reperità nella sensibilità o nell’aisthesis dello spettatore – il presente lavoro passerà, dunque, a considerare la riflessione tecno-logica di Stiegler trovando nelle immagini in quanto oggetti tecnici esterni all’uomo – cioè nelle protesi della sua sensibilità – le condizioni di possibilità per la comprensione del suo rapporto al tempo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Benessere delle popolazioni, gestione sostenibile delle risorse, povertà e degrado ambientale sono dei concetti fortemente connessi in un mondo in cui il 20% della popolazione mondiale consuma più del 75% delle risorse naturali. Sin dal 1992 al Summit della Terra a Rio de Janeiro si è affermato il forte legame tra tutela dell’ambiente e riduzione della povertà, ed è anche stata riconosciuta l’importanza di un ecosistema sano per condurre una vita dignitosa, specialmente nelle zone rurali povere dell’Africa, dell’Asia e dell’America Latina. La natura infatti, soprattutto per le popolazioni rurali, rappresenta un bene quotidiano e prezioso, una forma essenziale per la sussistenza ed una fonte primaria di reddito. Accanto a questa constatazione vi è anche la consapevolezza che negli ultimi decenni gli ecosistemi naturali si stanno degradando ad un ritmo impressionate, senza precedenti nella storia della specie umana: consumiamo le risorse più velocemente di quanto la Terra sia capace di rigenerarle e di “metabolizzare” i nostri scarti. Allo stesso modo aumenta la povertà: attualmente ci sono 1,2 miliardi di persone che vivono con meno di un dollaro al giorno, mentre circa metà della popolazione mondiale sopravvive con meno di due dollari al giorno (UN). La connessione tra povertà ed ambiente non dipende solamente dalla scarsità di risorse che rende più difficili le condizioni di vita, ma anche dalla gestione delle stesse risorse naturali. Infatti in molti paesi o luoghi dove le risorse non sono carenti la popolazione più povera non vi ha accesso per motivi politici, economici e sociali. Inoltre se si paragona l’impronta ecologica con una misura riconosciuta dello “sviluppo umano”, l’Indice dello Sviluppo Umano (HDI) delle Nazioni Unite (Cfr. Cap 2), il rapporto dimostra chiaramente che ciò che noi accettiamo generalmente come “alto sviluppo” è molto lontano dal concetto di sviluppo sostenibile accettato universalmente, in quanto i paesi cosiddetti “sviluppati” sono quelli con una maggior impronta ecologica. Se allora lo “sviluppo” mette sotto pressione gli ecosistemi, dal cui benessere dipende direttamente il benessere dell’uomo, allora vuol dire che il concetto di “sviluppo” deve essere rivisitato, perché ha come conseguenza non il benessere del pianeta e delle popolazioni, ma il degrado ambientale e l’accrescimento delle disuguaglianze sociali. Quindi da una parte vi è la “società occidentale”, che promuove l’avanzamento della tecnologia e dell’industrializzazione per la crescita economica, spremendo un ecosistema sempre più stanco ed esausto al fine di ottenere dei benefici solo per una ristretta fetta della popolazione mondiale che segue un modello di vita consumistico degradando l’ambiente e sommergendolo di rifiuti; dall’altra parte ci sono le famiglie di contadini rurali, i “moradores” delle favelas o delle periferie delle grandi metropoli del Sud del Mondo, i senza terra, gli immigrati delle baraccopoli, i “waste pickers” delle periferie di Bombay che sopravvivono raccattando rifiuti, i profughi di guerre fatte per il controllo delle risorse, gli sfollati ambientali, gli eco-rifugiati, che vivono sotto la soglia di povertà, senza accesso alle risorse primarie per la sopravvivenza. La gestione sostenibile dell’ambiente, il produrre reddito dalla valorizzazione diretta dell’ecosistema e l’accesso alle risorse naturali sono tra gli strumenti più efficaci per migliorare le condizioni di vita degli individui, strumenti che possono anche garantire la distribuzione della ricchezza costruendo una società più equa, in quanto le merci ed i servizi dell’ecosistema fungono da beni per le comunità. La corretta gestione dell’ambiente e delle risorse quindi è di estrema importanza per la lotta alla povertà ed in questo caso il ruolo e la responsabilità dei tecnici ambientali è cruciale. Il lavoro di ricerca qui presentato, partendo dall’analisi del problema della gestione delle risorse naturali e dal suo stretto legame con la povertà, rivisitando il concetto tradizionale di “sviluppo” secondo i nuovi filoni di pensiero, vuole suggerire soluzioni e tecnologie per la gestione sostenibile delle risorse naturali che abbiano come obiettivo il benessere delle popolazioni più povere e degli ecosistemi, proponendo inoltre un metodo valutativo per la scelta delle alternative, soluzioni o tecnologie più adeguate al contesto di intervento. Dopo l’analisi dello “stato del Pianeta” (Capitolo 1) e delle risorse, sia a livello globale che a livello regionale, il secondo Capitolo prende in esame il concetto di povertà, di Paese in Via di Sviluppo (PVS), il concetto di “sviluppo sostenibile” e i nuovi filoni di pensiero: dalla teoria della Decrescita, al concetto di Sviluppo Umano. Dalla presa di coscienza dei reali fabbisogni umani, dall’analisi dello stato dell’ambiente, della povertà e delle sue diverse facce nei vari paesi, e dalla presa di coscienza del fallimento dell’economia della crescita (oggi visibile più che mai) si può comprendere che la soluzione per sconfiggere la povertà, il degrado dell’ambiente, e raggiungere lo sviluppo umano, non è il consumismo, la produzione, e nemmeno il trasferimento della tecnologia e l’industrializzazione; ma il “piccolo e bello” (F. Schumacher, 1982), ovvero gli stili di vita semplici, la tutela degli ecosistemi, e a livello tecnologico le “tecnologie appropriate”. Ed è proprio alle Tecnologie Appropriate a cui sono dedicati i Capitoli successivi (Capitolo 4 e Capitolo 5). Queste sono tecnologie semplici, a basso impatto ambientale, a basso costo, facilmente gestibili dalle comunità, tecnologie che permettono alle popolazioni più povere di avere accesso alle risorse naturali. Sono le tecnologie che meglio permettono, grazie alle loro caratteristiche, la tutela dei beni comuni naturali, quindi delle risorse e dell’ambiente, favorendo ed incentivando la partecipazione delle comunità locali e valorizzando i saperi tradizionali, grazie al coinvolgimento di tutti gli attori, al basso costo, alla sostenibilità ambientale, contribuendo all’affermazione dei diritti umani e alla salvaguardia dell’ambiente. Le Tecnologie Appropriate prese in esame sono quelle relative all’approvvigionamento idrico e alla depurazione dell’acqua tra cui: - la raccolta della nebbia, - metodi semplici per la perforazione di pozzi, - pompe a pedali e pompe manuali per l’approvvigionamento idrico, - la raccolta dell’acqua piovana, - il recupero delle sorgenti, - semplici metodi per la depurazione dell’acqua al punto d’uso (filtro in ceramica, filtro a sabbia, filtro in tessuto, disinfezione e distillazione solare). Il quinto Capitolo espone invece le Tecnolocie Appropriate per la gestione dei rifiuti nei PVS, in cui sono descritte: - soluzioni per la raccolta dei rifiuti nei PVS, - soluzioni per lo smaltimento dei rifiuti nei PVS, - semplici tecnologie per il riciclaggio dei rifiuti solidi. Il sesto Capitolo tratta tematiche riguardanti la Cooperazione Internazionale, la Cooperazione Decentrata e i progetti di Sviluppo Umano. Per progetti di sviluppo si intende, nell’ambito della Cooperazione, quei progetti che hanno come obiettivi la lotta alla povertà e il miglioramento delle condizioni di vita delle comunità beneficiarie dei PVS coinvolte nel progetto. All’interno dei progetti di cooperazione e di sviluppo umano gli interventi di tipo ambientale giocano un ruolo importante, visto che, come già detto, la povertà e il benessere delle popolazioni dipende dal benessere degli ecosistemi in cui vivono: favorire la tutela dell’ambiente, garantire l’accesso all’acqua potabile, la corretta gestione dei rifiuti e dei reflui nonché l’approvvigionamento energetico pulito sono aspetti necessari per permettere ad ogni individuo, soprattutto se vive in condizioni di “sviluppo”, di condurre una vita sana e produttiva. È importante quindi, negli interventi di sviluppo umano di carattere tecnico ed ambientale, scegliere soluzioni decentrate che prevedano l’adozione di Tecnologie Appropriate per contribuire a valorizzare l’ambiente e a tutelare la salute della comunità. I Capitoli 7 ed 8 prendono in esame i metodi per la valutazione degli interventi di sviluppo umano. Un altro aspetto fondamentale che rientra nel ruolo dei tecnici infatti è l’utilizzo di un corretto metodo valutativo per la scelta dei progetti possibili che tenga presente tutti gli aspetti, ovvero gli impatti sociali, ambientali, economici e che si cali bene alle realtà svantaggiate come quelle prese in considerazione in questo lavoro; un metodo cioè che consenta una valutazione specifica per i progetti di sviluppo umano e che possa permettere l’individuazione del progetto/intervento tecnologico e ambientale più appropriato ad ogni contesto specifico. Dall’analisi dei vari strumenti valutativi si è scelto di sviluppare un modello per la valutazione degli interventi di carattere ambientale nei progetti di Cooperazione Decentrata basato sull’Analisi Multi Criteria e sulla Analisi Gerarchica. L’oggetto di questa ricerca è stato quindi lo sviluppo di una metodologia, che tramite il supporto matematico e metodologico dell’Analisi Multi Criteria, permetta di valutare l’appropriatezza, la sostenibilità degli interventi di Sviluppo Umano di carattere ambientale, sviluppati all’interno di progetti di Cooperazione Internazionale e di Cooperazione Decentrata attraverso l’utilizzo di Tecnologie Appropriate. Nel Capitolo 9 viene proposta la metodologia, il modello di calcolo e i criteri su cui si basa la valutazione. I successivi capitoli (Capitolo 10 e Capitolo 11) sono invece dedicati alla sperimentazione della metodologia ai diversi casi studio: - “Progetto ambientale sulla gestione dei rifiuti presso i campi Profughi Saharawi”, Algeria, - “Programa 1 milhão de Cisternas, P1MC” e - “Programa Uma Terra e Duas Águas, P1+2”, Semi Arido brasiliano.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

La ricerca svolta ha individuato fra i suoi elementi promotori l’orientamento determinato da parte della comunità europea di dare vita e sostegno ad ambiti territoriali intermedi sub nazionali di tipo regionale all’interno dei quali i sistemi di città potessero raggiungere le massime prestazioni tecnologiche per cogliere gli effetti positivi delle innovazioni. L’orientamento europeo si è confrontato con una realtà storica e geografica molto variata in quanto accanto a stati membri, nei quali le gerarchie fra città sono storicamente radicate e funzionalmente differenziate secondo un ordine che vede la città capitale dominante su città subalterne nelle quali la cultura di dominio del territorio non è né continua né gerarchizzata sussistono invece territori nazionali compositi con una città capitale di riconosciuto potere ma con città di minor dimensione che da secoli esprimono una radicata incisività nella organizzazione del territorio di appartenenza. Alla prima tipologia di stati appartengono ad esempio i Paesi del Nord Europa e l’Inghilterra, esprimendo nella Francia una situazione emblematica, alla seconda tipologia appartengono invece i Paesi dell’aera mediterranea, Italia in primis, con la grande eccezione della Germania. Applicando gli intendimenti comunitari alla realtà locale nazionale, questa tesi ha avviato un approfondimento di tipo metodologico e procedurale sulla possibile organizzazione a sistema di una regione fortemente policentrica nel suo sviluppo e “artificiosamente” rinata ad unità, dopo le vicende del XIX secolo: l’Emilia-Romagna. Anche nelle regioni che si presentano come storicamente organizzate sulla pluralità di centri emergenti, il rapporto col territorio è mediato da centri urbani minori che governano il tessuto cellulare delle aggregazioni di servizi di chiara origine agraria. Questo stato di cose comporta a livello politico -istituzionale una dialettica vivace fra territori voluti dalle istituzioni e territori legittimati dal consolidamento delle tradizioni confermato dall’uso attuale. La crescente domanda di capacità di governo dello sviluppo formulata dagli operatori economici locali e sostenuta dalle istituzioni europee si confronta con la scarsa capacità degli enti territoriali attuali: Regioni, Comuni e Province di raggiungere un livello di efficienza sufficiente ad organizzare sistemi di servizi adeguati a sostegno della crescita economica. Nel primo capitolo, dopo un breve approfondimento sulle “figure retoriche comunitarie”, quali il policentrismo, la governance, la coesione territoriale, utilizzate per descrivere questi fenomeni in atto, si analizzano gli strumenti programmatici europei e lo S.S.S.E,. in primis, che recita “Per garantire uno sviluppo regionale equilibrato nella piena integrazione anche nell’economia mondiale, va perseguito un modello di sviluppo policentrico, al fine di impedire un’ulteriore eccessiva concentrazione della forza economica e della popolazione nei territori centrali dell’UE. Solo sviluppando ulteriormente la struttura, relativamente decentrata, degli insediamenti è possibile sfruttare il potenziale economico di tutte le regioni europee.” La tesi si inserisce nella fase storica in cui si tenta di definire quali siano i nuovi territori funzionali e su quali criteri si basa la loro riconoscibilità; nel tentativo di adeguare ad essi, riformandoli, i territori istituzionali. Ai territori funzionali occorre riportare la futura fiscalità, ed è la scala adeguata per l'impostazione della maggior parte delle politiche, tutti aspetti che richiederanno anche la necessità di avere una traduzione in termini di rappresentanza/sanzionabilità politica da parte dei cittadini. Il nuovo governo auspicato dalla Comunità Europea prevede una gestione attraverso Sistemi Locali Territoriali (S.Lo.t.) definiti dalla combinazione di milieu locale e reti di attori che si comportano come un attore collettivo. Infatti il secondo capitolo parte con l’indagare il concetto di “regione funzionale”, definito sulla base della presenza di un nucleo e di una corrispondente area di influenza; che interagisce con altre realtà territoriali in base a relazioni di tipo funzionale, per poi arrivare alla definizione di un Sistema Locale territoriale, modello evoluto di regione funzionale che può essere pensato come una rete locale di soggetti i quali, in funzione degli specifici rapporti che intrattengono fra loro e con le specificità territoriali del milieu locale in cui operano e agiscono, si comportano come un soggetto collettivo. Identificare un sistema territoriale, è una condizione necessaria, ma non sufficiente, per definire qualsiasi forma di pianificazione o governance territoriale, perchè si deve soprattutto tener conto dei processi di integrazione funzionale e di networking che si vengono a generare tra i diversi sistemi urbani e che sono specchio di come il territorio viene realmente fruito., perciò solo un approccio metodologico capace di sfumare e di sovrapporre le diverse perimetrazioni territoriali riesce a definire delle aree sulle quali definire un’azione di governo del territorio. Sin dall’inizio del 2000 il Servizio Sviluppo Territoriale dell’OCSE ha condotto un’indagine per capire come i diversi paesi identificavano empiricamente le regioni funzionali. La stragrande maggioranza dei paesi adotta una definizione di regione funzionale basata sul pendolarismo. I confini delle regioni funzionali sono stati definiti infatti sulla base di “contorni” determinati dai mercati locali del lavoro, a loro volta identificati sulla base di indicatori relativi alla mobilità del lavoro. In Italia, la definizione di area urbana funzionale viene a coincidere di fatto con quella di Sistema Locale del Lavoro (SLL). Il fatto di scegliere dati statistici legati a caratteristiche demografiche è un elemento fondamentale che determina l’ubicazione di alcuni servizi ed attrezzature e una mappa per gli investimenti nel settore sia pubblico che privato. Nell’ambito dei programmi europei aventi come obiettivo lo sviluppo sostenibile ed equilibrato del territorio fatto di aree funzionali in relazione fra loro, uno degli studi di maggior rilievo è stato condotto da ESPON (European Spatial Planning Observation Network) e riguarda l’adeguamento delle politiche alle caratteristiche dei territori d’Europa, creando un sistema permanente di monitoraggio del territorio europeo. Sulla base di tali indicatori vengono costruiti i ranking dei diversi FUA e quelli che presentano punteggi (medi) elevati vengono classificati come MEGA. In questo senso, i MEGA sono FUA/SLL particolarmente performanti. In Italia ve ne sono complessivamente sei, di cui uno nella regione Emilia-Romagna (Bologna). Le FUA sono spazialmente interconnesse ed è possibile sovrapporre le loro aree di influenza. Tuttavia, occorre considerare il fatto che la prossimità spaziale è solo uno degli aspetti di interazione tra le città, l’altro aspetto importante è quello delle reti. Per capire quanto siano policentrici o monocentrici i paesi europei, il Progetto Espon ha esaminato per ogni FUA tre differenti parametri: la grandezza, la posizione ed i collegamenti fra i centri. La fase di analisi della tesi ricostruisce l’evoluzione storica degli strumenti della pianificazione regionale analizzandone gli aspetti organizzativi del livello intermedio, evidenziando motivazioni e criteri adottati nella suddivisione del territorio emilianoromagnolo (i comprensori, i distretti industriali, i sistemi locali del lavoro…). La fase comprensoriale e quella dei distretti, anche se per certi versi effimere, hanno avuto comunque il merito di confermare l’esigenza di avere un forte organismo intermedio di programmazione e pianificazione. Nel 2007 la Regione Emilia Romagna, nell’interpretare le proprie articolazioni territoriali interne, ha adeguato le proprie tecniche analitiche interpretative alle direttive contenute nel Progetto E.S.P.O.N. del 2001, ciò ha permesso di individuare sei S.Lo.T ( Sistemi Territoriali ad alta polarizzazione urbana; Sistemi Urbani Metropolitani; Sistemi Città – Territorio; Sistemi a media polarizzazione urbana; Sistemi a bassa polarizzazione urbana; Reti di centri urbani di piccole dimensioni). Altra linea di lavoro della tesi di dottorato ha riguardato la controriprova empirica degli effettivi confini degli S.Lo.T del PTR 2007 . Dal punto di vista metodologico si è utilizzato lo strumento delle Cluster Analisys per impiegare il singolo comune come polo di partenza dei movimenti per la mia analisi, eliminare inevitabili approssimazioni introdotte dalle perimetrazioni legate agli SLL e soprattutto cogliere al meglio le sfumature dei confini amministrativi dei diversi comuni e province spesso sovrapposti fra loro. La novità è costituita dal fatto che fino al 2001 la regione aveva definito sullo stesso territorio una pluralità di ambiti intermedi non univocamente circoscritti per tutte le funzioni ma definiti secondo un criterio analitico matematico dipendente dall’attività settoriale dominante. In contemporanea col processo di rinnovamento della politica locale in atto nei principali Paesi dell’Europa Comunitaria si va delineando una significativa evoluzione per adeguare le istituzioni pubbliche che in Italia comporta l’attuazione del Titolo V della Costituzione. In tale titolo si disegna un nuovo assetto dei vari livelli Istituzionali, assumendo come criteri di riferimento la semplificazione dell’assetto amministrativo e la razionalizzazione della spesa pubblica complessiva. In questa prospettiva la dimensione provinciale parrebbe essere quella tecnicamente più idonea per il minimo livello di pianificazione territoriale decentrata ma nel contempo la provincia come ente amministrativo intermedio palesa forti carenze motivazionali in quanto l’ente storico di riferimento della pianificazione è il comune e l’ente di gestione delegato dallo stato è la regione: in generale troppo piccolo il comune per fare una programmazione di sviluppo, troppo grande la regione per cogliere gli impulsi alla crescita dei territori e delle realtà locali. Questa considerazione poi deve trovare elementi di compatibilità con la piccola dimensione territoriale delle regioni italiane se confrontate con le regioni europee ed i Laender tedeschi. L'individuazione di criteri oggettivi (funzionali e non formali) per l'individuazione/delimitazione di territori funzionali e lo scambio di prestazioni tra di essi sono la condizione necessaria per superare l'attuale natura opzionale dei processi di cooperazione interistituzionale (tra comuni, ad esempio appartenenti allo stesso territorio funzionale). A questo riguardo molto utile è l'esperienza delle associazioni, ma anche delle unioni di comuni. Le esigenze della pianificazione nel riordino delle istituzioni politico territoriali decentrate, costituiscono il punto finale della ricerca svolta, che vede confermato il livello intermedio come ottimale per la pianificazione. Tale livello è da intendere come dimensione geografica di riferimento e non come ambito di decisioni amministrative, di governance e potrebbe essere validamente gestito attraverso un’agenzia privato-pubblica dello sviluppo, alla quale affidare la formulazione del piano e la sua gestione. E perché ciò avvenga è necessario che il piano regionale formulato da organi politici autonomi, coordinati dall’attività dello stato abbia caratteri definiti e fattibilità economico concreta.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

The main aim of this thesis is strongly interdisciplinary: it involves and presumes a knowledge on Neurophysiology, to understand the mechanisms that undergo the studied phenomena, a knowledge and experience on Electronics, necessary during the hardware experimental set-up to acquire neuronal data, on Informatics and programming to write the code necessary to control the behaviours of the subjects during experiments and the visual presentation of stimuli. At last, neuronal and statistical models should be well known to help in interpreting data. The project started with an accurate bibliographic research: until now the mechanism of perception of heading (or direction of motion) are still poorly known. The main interest is to understand how the integration of visual information relative to our motion with eye position information happens. To investigate the cortical response to visual stimuli in motion and the integration with eye position, we decided to study an animal model, using Optic Flow expansion and contraction as visual stimuli. In the first chapter of the thesis, the basic aims of the research project are presented, together with the reasons why it’s interesting and important to study perception of motion. Moreover, this chapter describes the methods my research group thought to be more adequate to contribute to scientific community and underlines my personal contribute to the project. The second chapter presents an overview on useful knowledge to follow the main part of the thesis: it starts with a brief introduction on central nervous system, on cortical functions, then it presents more deeply associations areas, which are the main target of our study. Furthermore, it tries to explain why studies on animal models are necessary to understand mechanism at a cellular level, that could not be addressed on any other way. In the second part of the chapter, basics on electrophysiology and cellular communication are presented, together with traditional neuronal data analysis methods. The third chapter is intended to be a helpful resource for future works in the laboratory: it presents the hardware used for experimental sessions, how to control animal behaviour during the experiments by means of C routines and a software, and how to present visual stimuli on a screen. The forth chapter is the main core of the research project and the thesis. In the methods, experimental paradigms, visual stimuli and data analysis are presented. In the results, cellular response of area PEc to visual stimuli in motion combined with different eye positions are shown. In brief, this study led to the identification of different cellular behaviour in relation to focus of expansion (the direction of motion given by the optic flow pattern) and eye position. The originality and importance of the results are pointed out in the conclusions: this is the first study aimed to investigate perception of motion in this particular cortical area. In the last paragraph, a neuronal network model is presented: the aim is simulating cellular pre-saccadic and post-saccadic response of neuron in area PEc, during eye movement tasks. The same data presented in chapter four, are further analysed in chapter fifth. The analysis started from the observation of the neuronal responses during 1s time period in which the visual stimulation was the same. It was clear that cells activities showed oscillations in time, that had been neglected by the previous analysis based on mean firing frequency. Results distinguished two cellular behaviour by their response characteristics: some neurons showed oscillations that changed depending on eye and optic flow position, while others kept the same oscillations characteristics independent of the stimulus. The last chapter discusses the results of the research project, comments the originality and interdisciplinary of the study and proposes some future developments.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Data coming out from various researches carried out over the last years in Italy on the problem of school dispersion in secondary school show that difficulty in studying mathematics is one of the most frequent reasons of discomfort reported by students. Nevertheless, it is definitely unrealistic to think we can do without such knowledge in today society: mathematics is largely taught in secondary school and it is not confined within technical-scientific courses only. It is reasonable to say that, although students may choose academic courses that are, apparently, far away from mathematics, all students will have to come to terms, sooner or later in their life, with this subject. Among the reasons of discomfort given by the study of mathematics, some mention the very nature of this subject and in particular the complex symbolic language through which it is expressed. In fact, mathematics is a multimodal system composed by oral and written verbal texts, symbol expressions, such as formulae and equations, figures and graphs. For this, the study of mathematics represents a real challenge to those who suffer from dyslexia: this is a constitutional condition limiting people performances in relation to the activities of reading and writing and, in particular, to the study of mathematical contents. Here the difficulties in working with verbal and symbolic codes entail, in turn, difficulties in the comprehension of texts from which to deduce operations that, once combined together, would lead to the problem final solution. Information technologies may support this learning disorder effectively. However, these tools have some implementation limits, restricting their use in the study of scientific subjects. Vocal synthesis word processors are currently used to compensate difficulties in reading within the area of classical studies, but they are not used within the area of mathematics. This is because the vocal synthesis (or we should say the screen reader supporting it) is not able to interpret all that is not textual, such as symbols, images and graphs. The DISMATH software, which is the subject of this project, would allow dyslexic users to read technical-scientific documents with the help of a vocal synthesis, to understand the spatial structure of formulae and matrixes, to write documents with a technical-scientific content in a format that is compatible with main scientific editors. The system uses LaTex, a text mathematic language, as mediation system. It is set up as LaTex editor, whose graphic interface, in line with main commercial products, offers some additional specific functions with the capability to support the needs of users who are not able to manage verbal and symbolic codes on their own. LaTex is translated in real time into a standard symbolic language and it is read by vocal synthesis in natural language, in order to increase, through the bimodal representation, the ability to process information. The understanding of the mathematic formula through its reading is made possible by the deconstruction of the formula itself and its “tree” representation, so allowing to identify the logical elements composing it. Users, even without knowing LaTex language, are able to write whatever scientific document they need: in fact the symbolic elements are recalled by proper menus and automatically translated by the software managing the correct syntax. The final aim of the project, therefore, is to implement an editor enabling dyslexic people (but not only them) to manage mathematic formulae effectively, through the integration of different software tools, so allowing a better teacher/learner interaction too.