994 resultados para O Problema Do Ma


Relevância:

30.00% 30.00%

Publicador:

Resumo:

The research was carried out in the urban area in Codó-MA, a small city the east part of Maranhão, which has 4,228.000 km2 (IBGE, 2000) and population of 113,768 hab. (IBGE, 2008). The city is also inside Codó-MA micro-region. The city is located in one of the lacking area in Brazil, where the Human Development Index (IDH) is approximately 0,558. It does not present an adequate model of management when talking about solid residue collecting. All of the solid residue produced and collected in the city is stored in an open area that they call lixão , which is located in a residence area in the suburbs. Because of that, a problem that involves public health and environmental areas, we understand it is necessary to investigate the way the local government treats and manages the solid residue collecting, as well as, the social, economical and productive reality of those who are directly involved in the collecting itself, its productive chain of the material, including the handling, transportation and its final destiny. It means a social, productive, economical diagnosis, that in a such way,the local society and the organs of inspection can act in a better way to control the problems that include solid urban residue and come from a bad administration. That way, this work proposes to carry out a study that has as result a diagnosis with feasible alternatives on management, taking as basis, social and economical aspects that compound this productive chain. This work can bring great contributions to a better local reality through the introduction of an integrated and supported system of management of solid residue that includes a selective collecting and the creation of a sanitary area. Taking that into consideration, we can contribute to minimize the environmental impacts in Codó Novo, caused by the garbage

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Telecommunications play a key role in contemporary society. However, as new technologies are put into the market, it also grows the demanding for new products and services that depend on the offered infrastructure, making the problems of planning telecommunications networks, despite the advances in technology, increasingly larger and complex. However, many of these problems can be formulated as models of combinatorial optimization, and the use of heuristic algorithms can help solving these issues in the planning phase. In this project it was developed two pure metaheuristic implementations Genetic algorithm (GA) and Memetic Algorithm (MA) plus a third hybrid implementation Memetic Algorithm with Vocabulary Building (MA+VB) for a problem in telecommunications that is known in the literature as Problem SONET Ring Assignment Problem or SRAP. The SRAP arises during the planning stage of the physical network and it consists in the selection of connections between a number of locations (customers) in order to meet a series of restrictions on the lowest possible cost. This problem is NP-hard, so efficient exact algorithms (in polynomial complexity ) are not known and may, indeed, even exist

Relevância:

30.00% 30.00%

Publicador:

Resumo:

L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggioovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Il termine cloud ha origine dal mondo delle telecomunicazioni quando i provider iniziarono ad utilizzare servizi basati su reti virtuali private (VPN) per la comunicazione dei dati. Il cloud computing ha a che fare con la computazione, il software, l’accesso ai dati e servizi di memorizzazione in modo tale che l’utente finale non abbia idea della posizione fisica dei dati e la configurazione del sistema in cui risiedono. Il cloud computing è un recente trend nel mondo IT che muove la computazione e i dati lontano dai desktop e dai pc portatili portandoli in larghi data centers. La definizione di cloud computing data dal NIST dice che il cloud computing è un modello che permette accesso di rete on-demand a un pool condiviso di risorse computazionali che può essere rapidamente utilizzato e rilasciato con sforzo di gestione ed interazione con il provider del servizio minimi. Con la proliferazione a larga scala di Internet nel mondo le applicazioni ora possono essere distribuite come servizi tramite Internet; come risultato, i costi complessivi di questi servizi vengono abbattuti. L’obbiettivo principale del cloud computing è utilizzare meglio risorse distribuite, combinarle assieme per raggiungere un throughput più elevato e risolvere problemi di computazione su larga scala. Le aziende che si appoggiano ai servizi cloud risparmiano su costi di infrastruttura e mantenimento di risorse computazionali poichè trasferiscono questo aspetto al provider; in questo modo le aziende si possono occupare esclusivamente del business di loro interesse. Mano a mano che il cloud computing diventa più popolare, vengono esposte preoccupazioni riguardo i problemi di sicurezza introdotti con l’utilizzo di questo nuovo modello. Le caratteristiche di questo nuovo modello di deployment differiscono ampiamente da quelle delle architetture tradizionali, e i meccanismi di sicurezza tradizionali risultano inefficienti o inutili. Il cloud computing offre molti benefici ma è anche più vulnerabile a minacce. Ci sono molte sfide e rischi nel cloud computing che aumentano la minaccia della compromissione dei dati. Queste preoccupazioni rendono le aziende restie dall’adoperare soluzioni di cloud computing, rallentandone la diffusione. Negli anni recenti molti sforzi sono andati nella ricerca sulla sicurezza degli ambienti cloud, sulla classificazione delle minacce e sull’analisi di rischio; purtroppo i problemi del cloud sono di vario livello e non esiste una soluzione univoca. Dopo aver presentato una breve introduzione sul cloud computing in generale, l’obiettivo di questo elaborato è quello di fornire una panoramica sulle vulnerabilità principali del modello cloud in base alle sue caratteristiche, per poi effettuare una analisi di rischio dal punto di vista del cliente riguardo l’utilizzo del cloud. In questo modo valutando i rischi e le opportunità un cliente deve decidere se adottare una soluzione di tipo cloud. Alla fine verrà presentato un framework che mira a risolvere un particolare problema, quello del traffico malevolo sulla rete cloud. L’elaborato è strutturato nel modo seguente: nel primo capitolo verrà data una panoramica del cloud computing, evidenziandone caratteristiche, architettura, modelli di servizio, modelli di deployment ed eventuali problemi riguardo il cloud. Nel secondo capitolo verrà data una introduzione alla sicurezza in ambito informatico per poi passare nello specifico alla sicurezza nel modello di cloud computing. Verranno considerate le vulnerabilità derivanti dalle tecnologie e dalle caratteristiche che enucleano il cloud, per poi passare ad una analisi dei rischi. I rischi sono di diversa natura, da quelli prettamente tecnologici a quelli derivanti da questioni legali o amministrative, fino a quelli non specifici al cloud ma che lo riguardano comunque. Per ogni rischio verranno elencati i beni afflitti in caso di attacco e verrà espresso un livello di rischio che va dal basso fino al molto alto. Ogni rischio dovrà essere messo in conto con le opportunità che l’aspetto da cui quel rischio nasce offre. Nell’ultimo capitolo verrà illustrato un framework per la protezione della rete interna del cloud, installando un Intrusion Detection System con pattern recognition e anomaly detection.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Nella presente tesi indaghiamo la potenzialità di LCM e Reverse Phase Protein microarray negli studi clinici. Si analizza la possibilità di creare una bio banca con line cellular primarie, al fine di conseguire drug test di sensibilità prima di decidere il trattamento da somministrare ai singoli pazienti. Sono stati ottenuti profili proteomici da biopsie pre e post terapia. I risultati dimostrano che questa piattaforma mostra il meccanismo di resistenza acquisito durante la terapia biologica. Questo ci ha portato ad analizzare una possibile stratificazione per pazienti con mCRC . I dati hanno rivelato distinti pathway di attivazione tra metastasi resecabile e non resecabili. I risultati mostrano inoltre due potenziali bersagli farmacologici. Ma la valutazione dell'intero tumore tramite singole biopsie sembra essere un problema a causa dell’eterogeneità intratumorale a livello genomico. Abbiamo indagato questo problema a livello dell'architettura del segnale in campioni di mCRC e ccRCC . I risultati indicano una somiglianza complessiva nei profili proteomici all'interno dello stesso tumore. Considerando che una singola biopsia è rappresentativa di un intera lesione , abbiamo studiato la possibilità di creare linee di cellule primarie, per valutare il profilo molecolare di ogni paziente. Fino ad oggi non c'era un protocollo per creare linee cellulari immortalizzate senza alcuna variazione genetica . abbiamo cosiderato, però, l'approccio innovativo delle CRCs. Ad oggi , non è ancora chiaro se tali cellule mimino il profilo dei tessuti oppure I passaggi in vitro modifichino i loro pathways . Sulla base di un modello di topo , i nostri dati mostrano un profilo di proteomica simile tra le linee di cellule e tessuti di topo LCM. In conclusione, i nostri dati dimostrano l'utilità della piattaforma LCM / RPPA nella sperimentazione clinica e la possibilità di creare una bio - banca di linee cellulari primarie, per migliorare la decisione del trattamento.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La Word Sense Disambiguation è un problema informatico appartenente al campo di studi del Natural Language Processing, che consiste nel determinare il senso di una parola a seconda del contesto in cui essa viene utilizzata. Se un processo del genere può apparire banale per un essere umano, può risultare d'altra parte straordinariamente complicato se si cerca di codificarlo in una serie di istruzioni esguibili da una macchina. Il primo e principale problema necessario da affrontare per farlo è quello della conoscenza: per operare una disambiguazione sui termini di un testo, un computer deve poter attingere da un lessico che sia il più possibile coerente con quello di un essere umano. Sebbene esistano altri modi di agire in questo caso, quello di creare una fonte di conoscenza machine-readable è certamente il metodo che permette di affrontare il problema in maniera più diretta. Nel corso di questa tesi si cercherà, come prima cosa, di spiegare in cosa consiste la Word Sense Disambiguation, tramite una descrizione breve ma il più possibile dettagliata del problema. Nel capitolo 1 esso viene presentato partendo da alcuni cenni storici, per poi passare alla descrizione dei componenti fondamentali da tenere in considerazione durante il lavoro. Verranno illustrati concetti ripresi in seguito, che spaziano dalla normalizzazione del testo in input fino al riassunto dei metodi di classificazione comunemente usati in questo campo. Il capitolo 2 è invece dedicato alla descrizione di BabelNet, una risorsa lessico-semantica multilingua di recente costruzione nata all'Università La Sapienza di Roma. Verranno innanzitutto descritte le due fonti da cui BabelNet attinge la propria conoscenza, WordNet e Wikipedia. In seguito saranno illustrati i passi della sua creazione, dal mapping tra le due risorse base fino alla definizione di tutte le relazioni che legano gli insiemi di termini all'interno del lessico. Infine viene proposta una serie di esperimenti che mira a mettere BabelNet su un banco di prova, prima per verificare la consistenza del suo metodo di costruzione, poi per confrontarla, in termini di prestazioni, con altri sistemi allo stato dell'arte sottoponendola a diversi task estrapolati dai SemEval, eventi internazionali dedicati alla valutazione dei problemi WSD, che definiscono di fatto gli standard di questo campo. Nel capitolo finale vengono sviluppate alcune considerazioni sulla disambiguazione, introdotte da un elenco dei principali campi applicativi del problema. Vengono in questa sede delineati i possibili sviluppi futuri della ricerca, ma anche i problemi noti e le strade recentemente intraprese per cercare di portare le prestazioni della Word Sense Disambiguation oltre i limiti finora definiti.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

El trabajo se ha realizado en el marco del proyecto coordinado de investigación sobre “Nutrición y salud en la España de la primera mitad del siglo XX” (Ministerio español de Educación y Ciencia. HUM2005-04961) y la Red de Malnutrición en Iberoamérica MeI-CYTED.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Mode of access: Internet.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

La nucleosintesi primordiale descrive le reazioni che hanno formato i primi elementi leggeri (H, 2H, 3He, 4He, 7Li) e ci da una previsione sull'andamento delle loro abbondanze primordiali in funzione del rapporto barioni-fotoni η, unico parametro libero della teoria BBN. Questo parametro è stato fissato dal momento in cui la sonda WMAP è stata lanciata in orbita; essa ha svolto misure importantissime sulla radiazione cosmica di fondo, fornendoci un valore accurato della densità barionica e quindi di η. Con questo nuovo dato sono state calcolate le abbondanze degli elementi leggeri ai tempi della nucleosintesi primordiale, tuttavia quella teorizzata per il 7Li non corrispondeva affatto a quella osservata nelle stelle dell'alone galattico, ma risultava essere dalle 2 alle 4 volte maggiore. Questa discrepanza costituisce il problema cosmologico del litio. Il problema può essere affrontato in diversi campi della fisica; il nostro scopo è quello di studiarlo dal punto di vista della fisica nucleare, analizzando le reazioni nucleari legate al 7Li. Il contributo principale alla produzione di 7Li proviene dal decadimento spontaneo del 7Be, quindi bisogna valutare il rate di reazione dei processi che producono o distruggono quest'ultimo nucleo; tale rate dipende dalla sezione d'urto della reazione. Un contributo fondamentale potrebbe essere dato dalle eventuali risonanze non ancora scoperte, cioè gli stati eccitati dei prodotti di reazione che si trovano ad energie non ancora studiate, in corrispondenza delle quali la sezione d'urto subisce un drastico aumento. Le due reazioni principali da considerare sono 7Be(n,p)7Li e 7Be(n,αlfa)4He; la prima perché contribuisce al 97% della distruzione del berillio, quindi una rivalutazione della sua sezione d'urto porterebbe ad un grande cambiamento nel valore dell'abbondanza di 7Be (e quindi di 7Li), la seconda poiché, anche se contribuisce solo al 2.5% della distruzione del berillio, possiede una incertezza enorme.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

Gli autovalori giocano un ruolo fondamentale in moltissimi fenomeni fisici. La localizzazione degli autovalori di una certa matrice nel piano complesso, ad esempio, è fondamentale nello studio della stabilità degli aerei. Le frequenze delle vibrazioni dei fasci sono sostanzialmente gli autovalori di una matrice di dimensione infinita. Questo rende il calcolo degli autovalori un problema notevolmente importante. Tra i metodi iterativi noti per l'approssimazione degli autovalori vi è il metodo delle potenze, utilizzato per il calcolo dell'autovalore dominante (autovalore di modulo massimo) di una matrice data e del relativo autovettore associato. Affinchè l'algoritmo converga è necessario che ci sia un autovalore dominante e, in particolare, più l'autovalore dominante è staccato dal resto dello spettro, maggiore sarà la sua velocità di convergenza. Il metodo delle potenze e le sue varianti (metodo delle potenze inverse e metodo delle potenze inverse shiftate) sono molto usati nelle applicazioni, in cui spesso non si è interessati ad approssimare tutti gli autovalori dello spettro, ma solo alcuni. Le equazioni del moto in dinamica strutturale, problemi di ingegneria strutturale e problemi relativi all'informatica (come l'algoritmo di PageRank di Google) sono solo alcuni esempi di applicazioni possibili di tale metodo.

Relevância:

30.00% 30.00%

Publicador:

Resumo:

O uso do SIG na espacialização de dados referentes à saúde é de extrema importância para o monitoramento das variáveis relacionadas à doença em questão, como por exemplo, fatores físicos, sociais e variantes relacionadas ao vetor transmissor. Esta geotecnologia possui uma linguagem computacional, na qual é possível armazenar, cruzar e relacionar dados, através da localização de pontos na superfície terrestre. No Brasil, a problemática da dengue, diante do seu agravamento e a iminência de uma epidemia de proporções consideráveis, tem intensificado as pesquisas para o desenvolvimento de métodos mais eficazes para o controle dessa doença no ambiente urbano. Em nível local, a utilização de SIGs para o monitoramento da dengue no município de São Luís, contribuiu para uma análise da distribuição espacial da doença na cidade. Deste modo, esta pesquisa objetivou analisar o problema da dengue na referida localidade, utilizando as geotecnologias e a educação ambiental sinergicamente associadas, como estratégia para que a comunidade descobrisse, através da participação nas atividades da pesquisa, a dimensão do problema da dengue no seu próprio habitat.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Paesaggio ed infrastrutture viarie sono un binomio molto forte: il primo ha insito il concetto di accessibilità, in quanto non può esistere senza la presenza di un osservatore; la strada, invece, trova i fattori che la connotano nel suo rapporto con la morfologia su cui insiste. Le infrastrutture viarie sono elemento strutturale e strutturante non solo di un territorio, ma anche di un paesaggio. Le attuali esigenze di mobilità portano oggi a ripensare ed adeguare molte infrastrutture viarie: laddove è possibile si potenziano le strutture esistenti, in diversi casi si ricorre a nuovi tracciati o a varianti di percorso. Porsi il problema di conservare itinerari testimoni della cultura materiale ed economica di una società implica considerazioni articolate, che travalicano i limiti del sedime: una via è un organismo più complesso della semplice linea di trasporto in quanto implica tutta una serie di manufatti a supporto della mobilità e soprattutto il corridoio infrastrutturale che genera e caratterizza, ovvero una porzione variabile di territorio definita sia dal tracciato che dalla morfologia del contesto. L’evoluzione dei modelli produttivi ed economici, che oggi porta quote sempre maggiori di popolazione a passare un tempo sempre minore all’interno del proprio alloggio, rende la riflessione sulle infrastrutture viarie dismesse o declassate occasione per la progettazione di spazi per l’abitare collettivo inseriti in contesti paesaggistici, tanto urbani che rurali, tramite reti di percorsi pensate per assorbire tagli di mobilità specifici e peculiari. Partendo da queste riflessioni la Tesi si articola in: Individuazioni del contesto teorico e pratico: Lo studio mette in evidenza come la questione delle infrastrutture viarie e del loro rapporto con il paesaggio implichi riflessioni incrociate a diversi livelli e tramite diverse discipline. La definizione dello spazio fisico della strada passa infatti per la costruzione di un itinerario, un viaggio che si appoggia tanto ad elementi fisici quanto simbolici. La via è un organismo complesso che travalica il proprio sedime per coinvolgere una porzione ampia di territorio, un corridoio variabile ed articolato in funzione del paesaggio attraversato. Lo studio propone diverse chiavi di lettura, mettendo in luce le possibili declinazioni del tema, in funzione del taglio modale, del rapporto con il contesto, del regime giuridico, delle implicazioni urbanistiche e sociali. La mobilità dolce viene individuata quale possibile modalità di riuso, tutela e recupero, del patrimonio diffuso costituito dalle diversi reti di viabilità. Antologia di casi studio: Il corpo principale dello studio si basa sulla raccolta, analisi e studio dello stato dell’arte nel settore; gli esempi raccolti sono presentati in due sezioni: la prima dedicata alle esperienze più significative ed articolate, che affrontano il recupero delle infrastrutture viarie a più livelli ed in modo avanzato non concentrandosi solo sulla conversione del sedime, ma proponendo un progetto che coinvolga tutto il corridoio attraversato dall’infrastruttura; la seconda parte illustra la pratica corrente nelle diverse realtà nazionali, ponendo in evidenza similitudini e differenze tra i vari approcci.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As a Lecturer of Animation History and 3D Computer Animator, I received a copy of Moving Innovation: A History of Computer Animation by Tom Sito with an element of anticipation in the hope that this text would clarify the complex evolution of Computer Graphics (CG). Tom Sito did not disappoint, as this text weaves together the multiple development streams and convergent technologies and techniques throughout history that would ultimately result in modern CG. Universities now have students who have never known a world without computer animation and many students are younger than the first 3D CG animated feature film, Toy Story (1996); this text is ideal for teaching computer animation history and, as I would argue, it also provides a model for engaging young students in the study of animation history in general. This is because Sito places the development of computer animation within the context of its pre-digital ancestry and throughout the text he continues to link the discussion to the broader history of animation, its pioneers, technologies and techniques...