1000 resultados para ADPKD,PKD,alimentazione,attività fisica,qualità di vita,malattia policistica epatorenale


Relevância:

100.00% 100.00%

Publicador:

Resumo:

CAPITOLO 1 INTRODUZIONE Il lavoro presentato è relativo all’utilizzo a fini metrici di immagini satellitari storiche a geometria panoramica; in particolare sono state elaborate immagini satellitari acquisite dalla piattaforma statunitense CORONA, progettata ed impiegata essenzialmente a scopi militari tra gli anni ’60 e ’70 del secolo scorso, e recentemente soggette ad una declassificazione che ne ha consentito l’accesso anche a scopi ed utenti non militari. Il tema del recupero di immagini aeree e satellitari del passato è di grande interesse per un ampio spettro di applicazioni sul territorio, dall’analisi dello sviluppo urbano o in ambito regionale fino ad indagini specifiche locali relative a siti di interesse archeologico, industriale, ambientale. Esiste infatti un grandissimo patrimonio informativo che potrebbe colmare le lacune della documentazione cartografica, di per sé, per ovvi motivi tecnici ed economici, limitata a rappresentare l’evoluzione territoriale in modo asincrono e sporadico, e con “forzature” e limitazioni nel contenuto informativo legate agli scopi ed alle modalità di rappresentazione delle carte nel corso del tempo e per diversi tipi di applicazioni. L’immagine di tipo fotografico offre una rappresentazione completa, ancorché non soggettiva, dell’esistente e può complementare molto efficacemente il dato cartografico o farne le veci laddove questo non esista. La maggior parte del patrimonio di immagini storiche è certamente legata a voli fotogrammetrici che, a partire dai primi decenni del ‘900, hanno interessato vaste aree dei paesi più avanzati, o regioni di interesse a fini bellici. Accanto a queste, ed ovviamente su periodi più vicini a noi, si collocano le immagini acquisite da piattaforma satellitare, tra le quali rivestono un grande interesse quelle realizzate a scopo di spionaggio militare, essendo ad alta risoluzione geometrica e di ottimo dettaglio. Purtroppo, questo ricco patrimonio è ancora oggi in gran parte inaccessibile, anche se recentemente sono state avviate iniziative per permetterne l’accesso a fini civili, in considerazione anche dell’obsolescenza del dato e della disponibilità di altre e migliori fonti di informazione che il moderno telerilevamento ci propone. L’impiego di immagini storiche, siano esse aeree o satellitari, è nella gran parte dei casi di carattere qualitativo, inteso ad investigare sulla presenza o assenza di oggetti o fenomeni, e di rado assume un carattere metrico ed oggettivo, che richiederebbe tra l’altro la conoscenza di dati tecnici (per esempio il certificato di calibrazione nel caso delle camere aerofotogrammetriche) che sono andati perduti o sono inaccessibili. Va ricordato anche che i mezzi di presa dell’epoca erano spesso soggetti a fenomeni di distorsione ottica o altro tipo di degrado delle immagini che ne rendevano difficile un uso metrico. D’altra parte, un utilizzo metrico di queste immagini consentirebbe di conferire all’analisi del territorio e delle modifiche in esso intercorse anche un significato oggettivo che sarebbe essenziale per diversi scopi: per esempio, per potere effettuare misure su oggetti non più esistenti o per potere confrontare con precisione o co-registrare le immagini storiche con quelle attuali opportunamente georeferenziate. Il caso delle immagini Corona è molto interessante, per una serie di specificità che esse presentano: in primo luogo esse associano ad una alta risoluzione (dimensione del pixel a terra fino a 1.80 metri) una ampia copertura a terra (i fotogrammi di alcune missioni coprono strisce lunghe fino a 250 chilometri). Queste due caratteristiche “derivano” dal principio adottato in fase di acquisizione delle immagini stesse, vale a dire la geometria panoramica scelta appunto perché l’unica che consente di associare le due caratteristiche predette e quindi molto indicata ai fini spionaggio. Inoltre, data la numerosità e la frequenza delle missioni all’interno dell’omonimo programma, le serie storiche di questi fotogrammi permettono una ricostruzione “ricca” e “minuziosa” degli assetti territoriali pregressi, data appunto la maggior quantità di informazioni e l’imparzialità associabili ai prodotti fotografici. Va precisato sin dall’inizio come queste immagini, seppur rappresentino una risorsa “storica” notevole (sono datate fra il 1959 ed il 1972 e coprono regioni moto ampie e di grandissimo interesse per analisi territoriali), siano state molto raramente impiegate a scopi metrici. Ciò è probabilmente imputabile al fatto che il loro trattamento a fini metrici non è affatto semplice per tutta una serie di motivi che saranno evidenziati nei capitoli successivi. La sperimentazione condotta nell’ambito della tesi ha avuto due obiettivi primari, uno generale ed uno più particolare: da un lato il tentativo di valutare in senso lato le potenzialità dell’enorme patrimonio rappresentato da tali immagini (reperibili ad un costo basso in confronto a prodotti simili) e dall’altro l’opportunità di indagare la situazione territoriale locale per una zona della Turchia sud orientale (intorno al sito archeologico di Tilmen Höyük) sulla quale è attivo un progetto condotto dall’Università di Bologna (responsabile scientifico il Prof. Nicolò Marchetti del Dipartimento di Archeologia), a cui il DISTART collabora attivamente dal 2005. L’attività è condotta in collaborazione con l’Università di Istanbul ed il Museo Archeologico di Gaziantep. Questo lavoro si inserisce, inoltre, in un’ottica più ampia di quelle esposta, dello studio cioè a carattere regionale della zona in cui si trovano gli scavi archeologici di Tilmen Höyük; la disponibilità di immagini multitemporali su un ampio intervallo temporale, nonché di tipo multi sensore, con dati multispettrali, doterebbe questo studio di strumenti di conoscenza di altissimo interesse per la caratterizzazione dei cambiamenti intercorsi. Per quanto riguarda l’aspetto più generale, mettere a punto una procedura per il trattamento metrico delle immagini CORONA può rivelarsi utile all’intera comunità che ruota attorno al “mondo” dei GIS e del telerilevamento; come prima ricordato tali immagini (che coprono una superficie di quasi due milioni di chilometri quadrati) rappresentano un patrimonio storico fotografico immenso che potrebbe (e dovrebbe) essere utilizzato sia a scopi archeologici, sia come supporto per lo studio, in ambiente GIS, delle dinamiche territoriali di sviluppo di quelle zone in cui sono scarse o addirittura assenti immagini satellitari dati cartografici pregressi. Il lavoro è stato suddiviso in 6 capitoli, di cui il presente costituisce il primo. Il secondo capitolo è stato dedicato alla descrizione sommaria del progetto spaziale CORONA (progetto statunitense condotto a scopo di fotoricognizione del territorio dell’ex Unione Sovietica e delle aree Mediorientali politicamente correlate ad essa); in questa fase vengono riportate notizie in merito alla nascita e all’evoluzione di tale programma, vengono descritti piuttosto dettagliatamente gli aspetti concernenti le ottiche impiegate e le modalità di acquisizione delle immagini, vengono riportati tutti i riferimenti (storici e non) utili a chi volesse approfondire la conoscenza di questo straordinario programma spaziale. Nel terzo capitolo viene presentata una breve discussione in merito alle immagini panoramiche in generale, vale a dire le modalità di acquisizione, gli aspetti geometrici e prospettici alla base del principio panoramico, i pregi ed i difetti di questo tipo di immagini. Vengono inoltre presentati i diversi metodi rintracciabili in bibliografia per la correzione delle immagini panoramiche e quelli impiegati dai diversi autori (pochi per la verità) che hanno scelto di conferire un significato metrico (quindi quantitativo e non solo qualitativo come è accaduto per lungo tempo) alle immagini CORONA. Il quarto capitolo rappresenta una breve descrizione del sito archeologico di Tilmen Höyuk; collocazione geografica, cronologia delle varie campagne di studio che l’hanno riguardato, monumenti e suppellettili rinvenute nell’area e che hanno reso possibili una ricostruzione virtuale dell’aspetto originario della città ed una più profonda comprensione della situazione delle capitali del Mediterraneo durante il periodo del Bronzo Medio. Il quinto capitolo è dedicato allo “scopo” principe del lavoro affrontato, vale a dire la generazione dell’ortofotomosaico relativo alla zona di cui sopra. Dopo un’introduzione teorica in merito alla produzione di questo tipo di prodotto (procedure e trasformazioni utilizzabili, metodi di interpolazione dei pixel, qualità del DEM utilizzato), vengono presentati e commentati i risultati ottenuti, cercando di evidenziare le correlazioni fra gli stessi e le problematiche di diversa natura incontrate nella redazione di questo lavoro di tesi. Nel sesto ed ultimo capitolo sono contenute le conclusioni in merito al lavoro in questa sede presentato. Nell’appendice A vengono riportate le tabelle dei punti di controllo utilizzati in fase di orientamento esterno dei fotogrammi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel presente lavoro di tesi sono state messe a confronto le ATP sintasi wild-type e γM23-K in cromatofori del batterio fotosintetico Rhodobacter capsulatus sotto gli aspetti funzionale e regolatorio. Si pensava inizialmente che la mutazione, in base a studi riportati in letteratura condotti sull’omologa mutazione in E. coli, avrebbe indotto disaccoppiamento intrinseco nell’enzima. Il presente lavoro ha chiarito che il principale effetto della mutazione è un significativo aumento dell’affinità dell’enzima per l’ADP inibitorio, che ne determina il ridotto livello di ATP idrolisi e la rapidissima reinattivazione in seguito ad attivazione da forza protonmotiva. Il residuo 23 della subunità γ si trova posizionato in prossimità della regione conservata DEELSED carica negativamente della subunità β, e l’introduzione nel mutante di una ulteriore carica positiva potrebbe determinare una maggiore richiesta di energia per indurre l’apertura del sito catalitico. Un’analisi quantitativa dei dati di proton pumping condotta mediante inibizione parziale dell’idrolisi del wildtype ha inoltre mostrato come il grado di accoppiamento del mutante in condizioni standard non differisca sostanzialmente da quello del wild-type. D’altro canto, è stato recentemente osservato come un disaccoppiamento intrinseco possa venire osservato in condizioni opportune anche nel wild-type, e cioè a basse concentrazioni di ADP e Pi. Nel presente lavoro di tesi si è dimostrato come nel mutante l’osservazione del fenomeno del disaccoppiamento intrinseco sia facilitata rispetto al wild-type. È stato proprio nell’ambito delle misure condotte sul mutante che è stato possibile dimostrare per la prima volta il ruolo fondamentale della componente elettrica della forza protonmotiva nel mantenere lo stato enzimatico ad elevato accoppiamento. Tale ruolo è stato successivamente messo in luce anche nel wild-type, in parte anche grazie all’uso di inibitori specifici di F1 e di FO. Il disaccoppiamento intrinseco nel wild-type è stato ulteriormente esaminato anche nella sua dipendenza dalla rimozione di ADP e Pi; in particolare, oltre all’amina fluorescente ACMA, è stata utilizzata come sonda di ΔpH anche la 9-aminoacridina e come sonda di Δψ l’Oxonolo VI. In entrambi i casi il ruolo accoppiante di questi due ligandi è stato confermato, inoltre utilizzando la 9-aminoacridina è stato possibile calibrare il segnale di fluorescenza con salti acido-base, dando quindi una base quantitativa ai dati ottenuti. Noi riteniamo che il più probabile candidato strutturale coinvolto in questi cambiamenti di stato enzimatici sia la subunità ε, di cui è noto il coinvolgimento in processi di regolazione e in cambiamenti strutturali indotti da nucleotidi e dalla forza protonmotiva. In collaborazione con il Dipartimento di Chimica Fisica dell’Università di Friburgo è in atto un progetto per studiare i cambiamenti strutturali presumibilmente associati al disaccoppiamento intrinseco tramite FRET in singola molecola di complessi ATP-sintasici marcati con fluorofori sia sulla subunità ε che sulla subunità γ. Nell’ambito di questa tesi sono stati creati a questo fine alcuni doppi mutanti cisteinici ed è stato messo a punto un protocollo per la loro marcatura con sonde fluorescenti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’ermeneutica filosofica di Hans-Georg Gadamer – indubbiamente uno dei capisaldi del pensiero novecentesco – rappresenta una filosofia molto composita, sfaccettata e articolata, per così dire formata da una molteplicità di dimensioni diverse che si intrecciano l’una con l’altra. Ciò risulta evidente già da un semplice sguardo alla composizione interna della sua opera principale, Wahrheit und Methode (1960), nella quale si presenta una teoria del comprendere che prende in esame tre differenti dimensioni dell’esperienza umana – arte, storia e linguaggio – ovviamente concepite come fondamentalmente correlate tra loro. Ma questo quadro d’insieme si complica notevolmente non appena si prendano in esame perlomeno alcuni dei numerosi contributi che Gadamer ha scritto e pubblicato prima e dopo il suo opus magnum: contributi che testimoniano l’importante presenza nel suo pensiero di altre tematiche. Di tale complessità, però, non sempre gli interpreti di Gadamer hanno tenuto pienamente conto, visto che una gran parte dei contributi esegetici sul suo pensiero risultano essenzialmente incentrati sul capolavoro del 1960 (ed in particolare sui problemi della legittimazione delle Geisteswissenschaften), dedicando invece minore attenzione agli altri percorsi che egli ha seguito e, in particolare, alla dimensione propriamente etica e politica della sua filosofia ermeneutica. Inoltre, mi sembra che non sempre si sia prestata la giusta attenzione alla fondamentale unitarietà – da non confondere con una presunta “sistematicità”, da Gadamer esplicitamente respinta – che a dispetto dell’indubbia molteplicità ed eterogeneità del pensiero gadameriano comunque vige al suo interno. La mia tesi, dunque, è che estetica e scienze umane, filosofia del linguaggio e filosofia morale, dialogo con i Greci e confronto critico col pensiero moderno, considerazioni su problematiche antropologiche e riflessioni sulla nostra attualità sociopolitica e tecnoscientifica, rappresentino le diverse dimensioni di un solo pensiero, le quali in qualche modo vengono a convergere verso un unico centro. Un centro “unificante” che, a mio avviso, va individuato in quello che potremmo chiamare il disagio della modernità. In altre parole, mi sembra cioè che tutta la riflessione filosofica di Gadamer, in fondo, scaturisca dalla presa d’atto di una situazione di crisi o disagio nella quale si troverebbero oggi il nostro mondo e la nostra civiltà. Una crisi che, data la sua profondità e complessità, si è per così dire “ramificata” in molteplici direzioni, andando ad investire svariati ambiti dell’esistenza umana. Ambiti che pertanto vengono analizzati e indagati da Gadamer con occhio critico, cercando di far emergere i principali nodi problematici e, alla luce di ciò, di avanzare proposte alternative, rimedi, “correttivi” e possibili soluzioni. A partire da una tale comprensione di fondo, la mia ricerca si articola allora in tre grandi sezioni dedicate rispettivamente alla pars destruens dell’ermeneutica gadameriana (prima e seconda sezione) ed alla sua pars costruens (terza sezione). Nella prima sezione – intitolata Una fenomenologia della modernità: i molteplici sintomi della crisi – dopo aver evidenziato come buona parte della filosofia del Novecento sia stata dominata dall’idea di una crisi in cui verserebbe attualmente la civiltà occidentale, e come anche l’ermeneutica di Gadamer possa essere fatta rientrare in questo discorso filosofico di fondo, cerco di illustrare uno per volta quelli che, agli occhi del filosofo di Verità e metodo, rappresentano i principali sintomi della crisi attuale. Tali sintomi includono: le patologie socioeconomiche del nostro mondo “amministrato” e burocratizzato; l’indiscriminata espansione planetaria dello stile di vita occidentale a danno di altre culture; la crisi dei valori e delle certezze, con la concomitante diffusione di relativismo, scetticismo e nichilismo; la crescente incapacità a relazionarsi in maniera adeguata e significativa all’arte, alla poesia e alla cultura, sempre più degradate a mero entertainment; infine, le problematiche legate alla diffusione di armi di distruzione di massa, alla concreta possibilità di una catastrofe ecologica ed alle inquietanti prospettive dischiuse da alcune recenti scoperte scientifiche (soprattutto nell’ambito della genetica). Una volta delineato il profilo generale che Gadamer fornisce della nostra epoca, nella seconda sezione – intitolata Una diagnosi del disagio della modernità: il dilagare della razionalità strumentale tecnico-scientifica – cerco di mostrare come alla base di tutti questi fenomeni egli scorga fondamentalmente un’unica radice, coincidente peraltro a suo giudizio con l’origine stessa della modernità. Ossia, la nascita della scienza moderna ed il suo intrinseco legame con la tecnica e con una specifica forma di razionalità che Gadamer – facendo evidentemente riferimento a categorie interpretative elaborate da Max Weber, Martin Heidegger e dalla Scuola di Francoforte – definisce anche «razionalità strumentale» o «pensiero calcolante». A partire da una tale visione di fondo, cerco quindi di fornire un’analisi della concezione gadameriana della tecnoscienza, evidenziando al contempo alcuni aspetti, e cioè: primo, come l’ermeneutica filosofica di Gadamer non vada interpretata come una filosofia unilateralmente antiscientifica, bensì piuttosto come una filosofia antiscientista (il che naturalmente è qualcosa di ben diverso); secondo, come la sua ricostruzione della crisi della modernità non sfoci mai in una critica “totalizzante” della ragione, né in una filosofia della storia pessimistico-negativa incentrata sull’idea di un corso ineluttabile degli eventi guidato da una razionalità “irrazionale” e contaminata dalla brama di potere e di dominio; terzo, infine, come la filosofia di Gadamer – a dispetto delle inveterate interpretazioni che sono solite scorgervi un pensiero tradizionalista, autoritario e radicalmente anti-illuminista – non intenda affatto respingere l’illuminismo scientifico moderno tout court, né rinnegarne le più importanti conquiste, ma più semplicemente “correggerne” alcune tendenze e recuperare una nozione più ampia e comprensiva di ragione, in grado di render conto anche di quegli aspetti dell’esperienza umana che, agli occhi di una razionalità “limitata” come quella scientista, non possono che apparire come meri residui di irrazionalità. Dopo aver così esaminato nelle prime due sezioni quella che possiamo definire la pars destruens della filosofia di Gadamer, nella terza ed ultima sezione – intitolata Una terapia per la crisi della modernità: la riscoperta dell’esperienza e del sapere pratico – passo quindi ad esaminare la sua pars costruens, consistente a mio giudizio in un recupero critico di quello che egli chiama «un altro tipo di sapere». Ossia, in un tentativo di riabilitazione di tutte quelle forme pre- ed extra-scientifiche di sapere e di esperienza che Gadamer considera costitutive della «dimensione ermeneutica» dell’esistenza umana. La mia analisi della concezione gadameriana del Verstehen e dell’Erfahrung – in quanto forme di un «sapere pratico (praktisches Wissen)» differente in linea di principio da quello teorico e tecnico – conduce quindi ad un’interpretazione complessiva dell’ermeneutica filosofica come vera e propria filosofia pratica. Cioè, come uno sforzo di chiarificazione filosofica di quel sapere prescientifico, intersoggettivo e “di senso comune” effettivamente vigente nella sfera della nostra Lebenswelt e della nostra esistenza pratica. Ciò, infine, conduce anche inevitabilmente ad un’accentuazione dei risvolti etico-politici dell’ermeneutica di Gadamer. In particolare, cerco di esaminare la concezione gadameriana dell’etica – tenendo conto dei suoi rapporti con le dottrine morali di Platone, Aristotele, Kant e Hegel – e di delineare alla fine un profilo della sua ermeneutica filosofica come filosofia del dialogo, della solidarietà e della libertà.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La ricerca si pone come obbiettivo principale quello di individuare gli strumenti in grado di controllare la qualità di una progettazione specifica che risponde alle forti richieste della domanda turistica di un territorio. Parte dalle più semplici teorie che inquadrano una costante condizione dell’uomo, “il VIAGGIARE”. La ricerca si pone come primo interrogativo quello definire una “dimensione” in cui le persone viaggiano, dove il concetto fisico di spazio dedicato alla vita si è spostato come e quanto si sposta la gente. Esiste una sorta di macroluogo (destinazione) che comprende tutti gli spazi dove la gente arriva e da cui spesso riparte. Pensare all'architettura dell’ospitalità significa indagare e comprendere come la casa non è più il solo luogo dove la gente abita. La ricerca affonda le proprie tesi sull’importanza dei “luoghi” appartenenti ad un territorio e come essi debbano riappropriarsi, attraverso un percorso progettuale, della loro più stretta vocazione attrattiva. Così come si sviluppa un’architettura dello stare, si manifesta un’architettura dello spostarsi e tali architetture si confondono e si integrano ad un territorio che per sua natura è esso stesso attrattivo. L’origine terminologica di nomadismo è passaggio necessario per la comprensione di una nuova dimensione architettonica legata a concetti quali mobilità e abitare. Si indaga pertanto all’interno della letteratura “diasporica”, in cui compaiono le prime configurazioni legate alla provvisorietà e alle costruzioni “erranti”. In sintesi, dopo aver posizionato e classificato il fenomeno turistico come nuova forma dell’abitare, senza il quale non si potrebbe svolgere una completa programmazione territoriale in quanto fenomeno oramai imprescindibile, la ricerca procede con l’individuazione di un ambito inteso come strumento di indagine sulle relazioni tra le diverse categorie e “tipologie” turistiche. La Riviera Romagnola è sicuramente molto famosa per la sua ospitalità e per le imponenti infrastrutture turistiche ma a livello industriale non è meno famosa per il porto di Ravenna che costituisce un punto di riferimento logistico per lo scambio di merci e materie prime via mare, oltre che essere, in tutta la sua estensione, caso di eccellenza. La provincia di Ravenna mette insieme tutti i fattori che servono a soddisfare le Total Leisure Experience, cioè esperienze di totale appagamento durante la vacanza. Quello che emerge dalle considerazioni svolte sul territorio ravennate è che il turista moderno non va più in cerca di una vacanza monotematica, in cui stare solo in spiaggia o occuparsi esclusivamente di monumenti e cultura. La richiesta è quella di un piacere procurato da una molteplicità di elementi. Pensiamo ad un distretto turistico dove l’offerta, oltre alla spiaggia o gli itinerari culturali, è anche occasione per fare sport o fitness, per rilassarsi in luoghi sereni, per gustare o acquistare cibi tipici e, allo stesso tempo, godere degli stessi servizi che una persona può avere a disposizione nella propria casa. Il percorso, finalizzato a definire un metodo di progettazione dell’ospitalità, parte dalla acquisizione delle esperienze nazionali ed internazionali avvenute negli ultimi dieci anni. La suddetta fase di ricerca “tipologica” si è conclusa in una valutazione critica che mette in evidenza punti di forza e punti di debolezza delle esperienze prese in esame. La conclusione di questa esplorazione ha prodotto una prima stesura degli “obbiettivi concettuali” legati alla elaborazione di un modello architettonico. Il progetto di ricerca in oggetto converge sul percorso tracciato dai Fiumi Uniti in Ravenna. Tale scelta consente di prendere in considerazione un parametro che mostri fattori di continuità tra costa e città, tra turismo balneare e turismo culturale, considerato quindi come potenziale strumento di connessione tra realtà spesso omologhe o complementari, in vista di una implementazione turistica che il progetto di ricerca ha come primo tra i suoi obiettivi. Il tema dell’architettura dell’ospitalità, che in questo caso si concretizza nell’idea di sperimentare l’ALBERGO DIFFUSO, è quello che permette di evidenziare al meglio la forma specifica della cultura locale, salvandone la vocazione universale. La proposta progettuale si articola in uno studio consequenziale ed organico in grado di promuovere una riflessione originale sul tema del modulo “abitativo” nei luoghi di prossimità delle emergenze territoriali di specifico interesse, attorno alle quali la crescente affluenza di un’utenza fortemente differenziata evidenzia la necessità di nodi singolari che si prestino a soddisfare una molteplicità di usi in contesti di grande pregio.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L’analisi condotta nella tesi mira ad indagare le determinanti del debito delle piccole e medie imprese italiane: la domanda di ricerca è indirizzata a capire se la struttura finanziaria di queste ultime segue i modelli teorici sviluppati nell’ambito della letteratura di Corporate Finance o se, d’altro canto, non sia possibile prescindere dalle peculiarità delle piccole e medie imprese per spiegare il ricorso alle diverse fonti di finanziamento. La ricerca empirica effettuata nella dissertazione vuole essere un tentativo di coniugare le teorie di riferimento e le evidenze empiriche relative alle piccole e medie imprese italiane, analizzandone il comportamento attraverso lo studio del campione di dati fornito da Capitalia, relativo alla Nona Indagine per il periodo 2001-2003. Il campione in oggetto fa riferimento a circa 4000 imprese con più di 10 addetti, prevalentemente del settore manifatturiero. Per indagare le determinanti del debito nelle sue componenti più tradizionali, si sono prese in considerazione il debito commerciale e il debito bancario a breve termine come forme di finanziamento correnti mentre, tra le forme di finanziamento di medio-lungo periodo, le variabili usate sono state il ricorso al debito bancario a lungo termine e a strumenti obbligazionari. Inoltre, si è ricorso anche a misure più tradizionali di leva finanziaria, quali il rapporto di indebitamento, la proporzione tra debiti bancari, sia di breve che di lungo periodo, e l’ammontare dei finanziamenti esterni rispetto al valore dell’impresa, distinguendo anche qui, tra finanziamenti a breve e a lungo termine. L’analisi descrittiva ha mostrato il massiccio ricorso al debito bancario e, in generale, alle forme di indebitamento a breve. Le imprese di dimensioni minori, più giovani e opache tendono a ricorrere alle fonti interne e a forme di indebitamento a breve, mentre le imprese maggiormente dimensionate mostrano una struttura del debito più articolata. Questo ha suggerito la definizione di una diversa misura di debito, che tiene conto della complessità della sua struttura all’interno delle imprese, in base ad un ricorso di tipo gerarchico alle fonti di finanziamento: il grado di complessità dipende dalle tipologie e dalla quantità dei contratti di debito conclusi dall’impresa . E’ plausibile pensare che le imprese ricorrano prima alle fonti interne di finanziamento, perché prive di costi, e poi all’indebitamento nei confronti di diversi stakeholders: rispetto alla prossimità e alla facilità dell’ottenimento del finanziamento, è sembrato naturale pensare che un’impresa ricorra dapprima al debito commerciale, poi al debito bancario e solo infine all’emissione di obbligazioni, in un ordine gerarchico. Ne consegue che se un’impresa (non) ha contratto debiti con fornitori, banche e mercato, la complessità della struttura del suo debito è massima (nulla). L’analisi econometrica successiva è stata indirizzata in tre direzioni. In primis, l’analisi longitudinale dei dati è stata volta ad evidenziare se la struttura finanziaria delle PMI risponde ad un particolare modello teorico, in accordo con le teoria tradizionali di riferimento. In secondo luogo, l’analisi delle determinanti si è allargata allo studio degli aspetti peculiari delle imprese medio-piccole. Infine, si è indagato se, nell’ambito delle imprese di dimensioni minori, si osservano comportamenti omogenei oppure se determinate scelte nelle fonti di finanziamento sono da ricondurre all’esistenza di alcuni vincoli. Quindi, partendo dalla rassegna dei principali riferimenti nella letteratura, costituiti dalla Trade-off theory (Modigliani e Miller, 1963, De Angelo e Masulis, 1980, Miller, 1977), dalla Pecking order theory (Myers 1984, Myers e Majluf, 1984) e dalla Financial growth cycle theory (Berger e Udell, 1998), una prima serie di analisi econometriche è stata rivolta alla verifica empirica delle teorie suddette. Una seconda analisi mira, invece, a capire se il comportamento delle imprese possa essere spiegato anche da altri fattori: il modello del ciclo di vita dell’impresa, mutuato dalle discipline manageriali, così come il contesto italiano e la particolarità del rapporto bancaimpresa, hanno suggerito l’analisi di altre determinanti al ricorso delle diverse fonti di debito. Di conseguenza, si sono usate delle opportune analisi econometriche per evidenziare se la struttura proprietaria e di controllo dell’impresa, il suo livello di complessità organizzativa possano incidere sulla struttura del debito delle imprese. Poi, si è indagato se il massiccio ricorso al debito bancario è spiegato dalle peculiarità del rapporto banca-impresa nel nostro Paese, rintracciabili nei fenomeni tipici del relationship lending e del multiaffidamento. Ancora, si sono verificati i possibili effetti di tale rapporto sulla complessità della struttura del debito delle imprese. Infine, l’analisi della letteratura recente sulla capital structure delle imprese, l’approccio sviluppato da Fazzari Hubbard e Petersen (1988) e Almeida e Campello (2006 , 2007) ha suggerito un ultimo livello di analisi. La presenza di vincoli nelle decisioni di finanziamento, legati essenzialmente alla profittabilità, alla dimensione delle imprese, alle sue opportunità di crescita, e alla reputazione verso l’esterno, secondo la letteratura recente, è cruciale nell’analisi delle differenze sistematiche di comportamento delle imprese. Per di più, all’interno del lavoro di tesi, così come in Almeida e Campello (2007), si è ipotizzato che la propensione agli investimenti possa essere considerata un fattore endogeno rispetto alla struttura del debito delle imprese, non esogeno come la letteratura tradizionale vuole. Per questo motivo, si è proceduto ad un ultimo tipo di analisi econometrica, volta a rilevare possibili differenze significative nel comportamento delle imprese rispetto al ricorso alle fonti di finanziamento a titolo di debito: nel caso in cui esse presentino una dimensione contenuta, una bassa redditività e una scarsa reputazione all’esterno infatti, vi dovrebbe essere un effetto di complementarietà tra fonti interne ed esterne. L’effetto sarebbe tale per cui non sussisterebbe, o per lo meno non sarebbe significativa, una relazione negativa tra fonti interne ed esterne. Complessivamente, i risultati delle analisi empiriche condotte, supportano sia le teorie classiche di riferimento nell’ambito della disciplina della Corporate finance, sia la teoria proposta da Berger e Udell (1998): le variabili che risultano significative nella spiegazione della struttura del debito sono principalmente quelle relative alla dimensione, all’età, al livello e alla qualità delle informazioni disponibili. Inoltre, il ricorso a fonti interne risulta essere la primaria fonte di finanziamento, seguita dal debito. Il ricorso a fonti esterne, in particolare al debito bancario, aumenta quanto più l’impresa cresce, ha una struttura solida e la capacità di fornire delle garanzie, e ha una reputazione forte. La struttura del debito, peraltro, diventa più complessa all’aumentare della dimensione, dell’età e del livello di informazioni disponibili. L’analisi della struttura proprietaria e della componente organizzativa all’interno delle imprese ha evidenziato principalmente che la struttura del debito aumenta di complessità con maggiore probabilità se la proprietà è diffusa, se vi è un management indipendente e se la piramide organizzativa è ben definita. Relativamente al rapporto banca-impresa, i principali risultati mostrano che l’indebitamento bancario sembra essere favorito dai fenomeni di relationship lending e dal multiaffidamento. Tali peculiarità assumono tratti diversi a seconda della fase del ciclo di vita delle imprese della Nona Indagine. Infine, per quanto attiene all’ultima tipologia di analisi condotta, le evidenze empiriche suggeriscono che le piccole e medie imprese possano essere soggette a delle restrizioni che si riflettono nell’ambito delle loro politiche di investimento. Tali vincoli, relativi alla dimensione, ai profitti conseguiti e alla reputazione all’esterno, aiutano a spiegare le scelte di finanziamento delle PMI del campione.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'oggetto della seguente tesi riguarda la valutazione di impatto ambientale del ciclo di vita di un concentratore solare, mediante l'applicazione della metodologia LCA – Life Cycle Assessment. Il lavoro di tesi presenta una breve introduzione su tematiche ambientali e sociali, quali lo Sviluppo sostenibile e le energie rinnovabili, che conducono verso l'importanza della misurazione del così detto impatto ambientale, e soprattutto dell'aspetto fondamentale di una valutazione di questo tipo, vale a dire l'analisi dell'intero ciclo di vita legato ad un prodotto. Nella tesi viene presentata inizialmente la metodologia utilizzata per la valutazione, la Life Cycle Assessment, descrivendone le caratteristiche, le potenzialità, la normalizzazione in base a regolamenti internazionali ed analizzando una ad una le 4 fasi principali che la caratterizzano: Definizione dell'obiettivo e del campo di applicazione, Analisi di inventario, Valutazione degli impatti e Interpretazione dei risultati. Il secondo capitolo presenta una descrizione dettagliata dello strumento applicativo utilizzato per l'analisi, il SimaPro nella versione 7.1, descrivendone le caratteristiche principali, l'interfaccia utente, le modalità di inserimento dei dati, le varie rappresentazioni possibili dei risultati ottenuti. Sono descritti inoltre i principali database di cui è fornito il software, che contengono una moltitudine di dati necessari per l'analisi di inventario, ed i così detti metodi utilizzati per la valutazione, che vengono adoperati per “focalizzare” la valutazione su determinate categorie di impatto ambientale. Il terzo capitolo fornisce una descrizione dell'impianto oggetto della valutazione, il CHEAPSE, un concentratore solare ad inseguimento per la produzione di energia elettrica e termica. La descrizione viene focalizzata sui componenti valutati per questa analisi, che sono la Base e la struttura di sostegno, il Pannello parabolico in materiale plastico per convogliare i raggi solari ed il Fuoco composto da celle fotovoltaiche. Dopo aver analizzato i materiali ed i processi di lavorazione necessari, vengono descritte le caratteristiche tecniche, le possibili applicazioni ed i vantaggi del sistema. Il quarto ed ultimo capitolo riguarda la descrizione dell'analisi LCA applicata al concentratore solare. In base alle varie fasi dell'analisi, vengono descritti i vari passaggi effettuati, dalla valutazione e studio del progetto al reperimento ed inserimento dei dati, passando per la costruzione del modello rappresentativo all'interno del software. Vengono presentati i risultati ottenuti, sia quelli relativi alla valutazione di impatto ambientale dell'assemblaggio del concentratore e del suo intero ciclo di vita, considerando anche lo scenario di fine vita, sia i risultati relativi ad analisi comparative per valutare, dal punto di vista ambientale, modifiche progettuali e processuali. Per esempio, sono state comparate due modalità di assemblaggio, tramite saldatura e tramite bulloni, con una preferenza dal punto di vista ambientale per la seconda ipotesi, ed è stato confrontato l'impatto relativo all'utilizzo di celle in silicio policristallino e celle in silicio monocristallino, la cui conclusione è stata che l'impatto delle celle in silicio policristallino risulta essere minore. Queste analisi comparative sono state possibili grazie alle caratteristiche di adattabilità del modello realizzato in SimaPro, ottenute sfruttando le potenzialità del software, come l'utilizzo di dati “parametrizzati”, che ha permesso la creazione di un modello intuitivo e flessibile che può essere facilmente adoperato, per ottenere valutazioni su scenari differenti, anche da analisti “alle prime armi”.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il presente lavoro ha come oggetto l’analisi di impatto ambientale, svolta mediante la metodologia Life Cycle Assessment (LCA) di un gruppo elettrogeno prodotto da COGEM s.r.l., azienda italiana situata a Castel d’Argile, nel bolognese, con l’obiettivo di supportare eventuali scelte di riprogettazione del prodotto anche in termini di Design for Disassembly. Dopo una prima analisi del contesto attuale in cui si colloca, la metodologia LCA è stata studiata nel dettaglio per poterla poi applicare al prodotto in oggetto. Esso è stato individuato mediante un’analisi delle vendite di COGEM, in seguito si è svolta una fase di raccolta dati e si sviluppata l’analisi LCA usando il software SimaPro 7.1. I risultati ottenuti hanno consentito di individuare le possibili aree di miglioramento dell’impatto ambientale dell’intero ciclo di vita del gruppo elettrogeno. In particolare si sono valutate due soluzioni innovative: un gruppo elettrogeno alimentato a olio vegetale e uno progettato in ottica DFD per consentire un corretto smaltimento dei rifiuti.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Due nuove mode che si stanno propagando sempre più tra gli innumerevoli tentativi di realizzare nuovi formati di pubblicità on-line sono la pubblicità che diventa videogame gratuito, giocabile on-line o scaricabile, chiamata advergame, e la collocazione di pubblicità, oramai nella stragrande maggioranza dinamiche, nei videogames sopratutto di grandi software house, chiamata in-game advertising. Infatti nella società odierna i pubblicitari devono camuffare i consigli per gli acquisti per fare in modo che non vengano rifiutati. L'advergame in passato è stato lodato per il suo metodo innovativo di fare pubblicità. La sua caratteristica è la capacità di divertire e intrattenere l'utente ottenendo una connotazione non intrusiva e un effetto fidelizzante, peculiarità che fa di questo mezzo uno strumento potenzialmente molto valido. Si tratta, in parole povere, di videogames spesso multiplayer, nei quali gli scenari, gli oggetti e i personaggi evocano determinati brand o prodotti. Per quello che invece riguarda l'in-game advertising, si tratta di una forma particolarmente efficace di pubblicità che permette di ottenere dei tassi di ricordo rilevanti e che consente un elevato coinvolgimento emotivo. E' a livello della creazione degli spazi pubblicitari che si scatena la fantasia degli sviluppatori: se nei giochi sportivi basta trasporre in 3D gli spazi pubblicitari presenti solitamente nella realtà, in altre tipologie di gioco è necessario sfruttare parti dell'ambientazione o creare degli intermezzi atti allo scopo. Esempio tipico è quello di manifesti pubblicitari inseriti in spazi di gioco come le locande, soprattutto nei giochi di ruolo e nelle avventure grafiche. Gli investimenti in queste particolari forme di comunicazione, crescono a tassi elevatissimi e il business è molto allettante, non a caso le principali agenzie specializzate in materia sono state acquisite da grandi colossi: AdScape Media da Google e Massive Inc. da Microsoft. L'advergame e l'in-game advertising possono essere usati per lanciare un nuovo prodotto sul mercato, per rafforzare l'immagine del brand e per ottenere un database di utenti disposti ad essere sollecitati per ottenere in modo facile e non dispendioso riscontri su future attività di marketing. Perciò mi sono proposto di analizzare la situazione odierna del marketing, in particolare la parte che riguarda la pubblicità, i vantaggi ottenuti da questa scienza dallo sviluppo tecnologico, fattore che ha determinato la nascita dei due formati pubblicitari in esame e analizzati in seguito. Inoltre effettuerò l'analisi del fenomeno che vede i grandi colossi dell'IT tentare l'inserimento come agenzie intermediarie fra le software house da una parte e le grandi multinazionali dall'altra, queste ultime alla ricerca di nuovi canali più profittevoli dove sponsorizzare le proprie attività. Cercherò infine di capire le scelte di tutti gli attori che girano attorno a questi formati pubblicitari e i benefici che ne traggono per ipotizzare quale sarà il contesto che si andrà a delineare.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

La tesi di dottorato focalizza su quei fenomeni nei quali è particolarmente visibile una diffusa propensione all’assunzione di responsabilità nei confronti del significato e delle conseguenze del proprio agire di mercato. La tesi esamina le implicazioni connesse ad una nuova etica del consumo sia dal punto di vista del consumatore sia da quello dell’impresa, in particolare indaga l’atteggiamento di consumatori e produttori rispetto a pratiche di responsabilità sociale di impresa. Nel primo capitolo “Dimensioni di un consumo in evoluzione” le griglie concettuali interpretative del fenomeno del consumo vengono distinte da quelle peculiari del sistema produttivo, arrivando all’individuazione di strumenti che svelano le logiche proprie del fenomeno indagato. In questo scenario la società complessa corrisponde alla società dei consumi e il consumo diventa area esperienziale, capace anche di creare senso, orizzonti valoriali e di assumere valenze interattive e simboliche. Nel secondo capitolo “Il cittadino consumatore” è stato rappresentato il variegato mondo del consumatore, quel cittadino che si esprime politicamente non solo con il voto ma anche attraverso le proprie pratiche di consumo che veicolano scelte, ideali, valori. Sono rappresentati i tanti volti del consumatore “responsabile”, “critico” ed “etico”, attraverso lo studio del commercio equo e solidale, i Gas, la finanza etica, tutti significativi segnali di mutamento con cui governi e imprese sono chiamati a confrontarsi. Vengono prese in esame ricerche nazionali e internazionali per meglio comprendere quanto e con quali modalità sono diffuse, nella popolazione, pratiche di consumo responsabile rispetto a ben identificate pratiche di Rsi. Nel terzo capitolo “La Responsabilità Sociale d’Impresa” si approfondisce il concetto di responsabilità sociale di impresa: sono illustrate le evoluzioni che questa prassi ha subito nel corso della storia, le sue differenti declinazioni attuali, gli elementi che la distinguono, i suoi strumenti. Nel quarto capitolo “La responsabilità sociale di impresa e la grande distribuzione” vengono analizzate le relazioni esistenti tra la grande distribuzione (Coop e Conad) e la Rsi, considerando anche il ruolo della grande distribuzione, nella metropoli, nelle scelte di consumo. Nello specifico si vogliono comprendere le strategie aziendali, la struttura organizzativa, i servizi, i prodotti “etici” distribuiti e la loro relazione con il consumatore. Il quinto capitolo “La ricerca” contiene la ricerca empirica, 60 interviste in profondità somministrate a consumatori di Coop e Conad e a elementi rappresentativi (dirigenti) delle aziende in questione; l’elaborazione dei dati avviene con l’analisi di contenuto attraverso la costruzione di frasi chiave. Le conclusioni finali a cui perveniamo cercano di fare luce sul mondo del consumo e su quello dell’impresa nel momento in cui si confrontano con la responsabilità del proprio agire. Emergono diversi elementi per sostenere che la cultura della responsabilità assume un peso tutt’altro che marginale nelle strategie di azione delle imprese e nell’analisi del comportamento dei consumatori. Il sistema impresa assume la responsabilità come elemento qualificante la propria politica industriale, legandolo alla sostenibilità, alla reputazione, al rapporto fiduciario con il cliente. Analizzando il ruolo dei cittadini consumatori nello spazio di riferimento, nell’impegno e nel tentativo di decidere, attraverso determinati consumi, il modo di vivere il proprio territorio, abbiamo forse compreso qualcosa in più. Si veicola attraverso le scelte di consumo un’idea di vivere la città per cui è imprescindibile la qualità della vita, perseguita anche attraverso l’approvazione o, di converso, il disconoscimento delle imprese e dei rispettivi prodotti. Nell’analisi dell’atteggiamento partecipativo del cittadino verso la propria sfera pubblica possiamo sostenere che la dimensione del consumo tracima di gran lunga il mercato prefigurando un differente modello di società.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel tentativo di rispondere alle esigenze valutate in seguito all’analisi del centro storico in base a differenti profili investigativi, si è formulato un programma di intervento con obiettivi e strategie codificate. In modo particolare viene privilegiata l’indagine effettuata a livello sociale sulla popolazione del centro storico, ambito di ricerca necessario per una buona premessa per un progetto che ha come oggetto l’abitare. Da queste considerazioni nasce l’idea del progetto dove il tema della residenza si inserisce in un contesto urbano in stretta relazione con il tessuto storico della città di Forlì. L’individuazione dell’area di progetto, situata in una posizione di confine tra due realtà differenti, il centro storico e la circonvallazione che lo racchiude, suggerisce la necessità di stabilire attraverso collegamenti perdonali e ciclabili fra l’area in esame e la periferia esterna una configurazione dinamica, dove il vuoto urbano che si presenta è lo scenario ideale per ristabilire una porta moderna alla città, ricomponendo la leggibilità tra la sfera naturale e quella insediativa. Alla scala urbana l’obiettivo è quello di stabilire il ruolo di centralità dell’area, nel suo insieme, restituendo ai fatti urbani della città le funzioni di interesse pubblico generale. La zona oggetto di discussione è un nodo urbano in cui coesistono manufatti di pregio architettonico e storico come quello della Filanda in oggetto e dell’Ex Complesso conventuale della Ripa, in grado di essere potenziali contenitori di funzioni pubbliche di alto livello, e aree verdi da riqualificare, con forte propensione all’uso pubblico, come gli Orti di via Curte. Sotto questo profilo deve essere valutata anche la tematica del rapporto con l’architettura antica, tenendo in considerazione l’effetto di impatto che i nuovi interventi avranno sull’esistente. È dunque il sito di progetto che detta le metodologie di approccio legate alla necessità di un intervento sostenibile e non invasivo. Partendo da queste considerazioni si sviluppano le tematiche legate alla flessibilità e alle sue coniugazioni. La società contemporanea che ci impone ogni giorno modelli di vita sempre nuovi e la necessità di movimento e trasformazione, ci mette di fronte più che mai al bisogno di progettare spazi non rigidi, ma aperti alle molteplici possibilità d’uso e ai cambiamenti nel tempo. La flessibilità viene dunque concepita in relazione ai concetti di complessità e sostenibilità. Se da una parte è necessario riconoscere la molteplicità dei modi d’uso con i quali l’oggetto dovrà confrontarsi ed assumere il carattere aleatorio di qualsiasi previsione relativa ai modelli di comportamento dell’utenza, dall’altra occorre cogliere all’interno del progetto della residenza flessibile la possibilità di pervenire a un costruire capace di riconfigurarsi di volta in volta, adattandosi alle differenti condizioni d’uso, senza dover procedere a drastiche modifiche che impongono la dismissione di materiali e componenti. Il sistema della stratificazione a secco può essere quello che attualmente meglio risponde, per qualità ed economicità, ai concetti della biologia dell’abitare e della casa intelligente, nozioni che acquisiscono sempre più importanza all’interno di una nuova concezione della progettazione. Si sceglie dunque di riportare la Filanda, quanto possibile, alla riconfigurazione originaria, prima che la corte interna fosse completamente saturata di depositi e magazzini come ci si presenta oggi e di concepire una nuova configurazione di quello che diventa un isolato urbano integrato nel tessuto storico, e nodo strutturante per un’area più vasta. Lavorando sulla residenza occorre mettere in primo piano il protagonista dell’architettura che si va a progettare: l’uomo. Per questo la scala urbana e la dimensione umana devono essere concepite parallelamente e la progettazione della cellula di base che si struttura secondo le modalità premesse di flessibilità e sostenibilità si sovrappone all’obiettivo di individuare all’interno del vuoto urbano, una nuova densità, dove il dialogo tra pubblico e privato sia il presupposto per lo sviluppo di un piano integrato e dinamico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Affrontare l’analisi critica delle traduzioni italiane di Un amour de Swann di Marcel Proust implica necessariamente un attento esame dello stile esemplare di un autore, che ha modificato, in larga misura, la concezione del romanzo e della scrittura stessa; in secondo luogo significa considerare l’altrettanto complesso lavorio intellettuale rappresentato dalla traduzione, in qualità di atto critico fondamentale. Prenderemo in esame nel capitolo primo la genesi del TP, le sue specificità narratologiche e la ricezione critica francese e italiana, per comprendere appieno l’originalità di Proust rispetto al panorama letterario dell’epoca. Nella seconda parte del primo capitolo delineeremo un excursus lungo la storia di tutte le traduzioni italiane del romanzo, accordando particolare attenzione alla figura di ogni traduttore: Natalia Ginzburg (1946), Bruno Schacherl (1946), Armando Landini (1946), Oreste Del Buono (1965), Giovanni Raboni (1978), Maria Teresa Nessi Somaini (1981), Gianna Tornabuoni (1988), Eurialo De Michelis (1990) e il traduttore, rimasto anonimo, della casa editrice La Spiga Languages (1995). Nel secondo capitolo analizzeremo la peculiarità stilistica più nota dell’autore, la sintassi. I lunghi periodi complicati da un intreccio di subordinate e sciolti solo con il ricorso a vari nessi sintattici contribuiscono a rendere la sintassi proustiana una delle sfide maggiori in sede traduttiva. Nel capitolo successivo accorderemo attenzione all’eteroglossia enunciativa, espressa nei diversi idioletti del romanzo. In sede contrastiva affronteremo la questione della trasposizione dei niveaux de langue, per poter valutare le scelte intraprese dai traduttori in un ambito altamente complesso, a causa della diversità diafasica intrinseca dei due codici. All’interno del medesimo capitolo apriremo una parentesi sulla specificità di una traduzione, quella di Giacomo Debenedetti, effettuata seguendo una personale esegesi dello stile musicale e armonico di Proust. Riserveremo al capitolo quarto lo studio del linguaggio figurato, soffermandoci sull’analisi delle espressioni idiomatiche, che vengono impiegate frequentemente da alcuni personaggi. Rivolgeremo uno sguardo d’insieme alle strategie messe in atto dai traduttori, per cercare un equivalente idiomatico o per ricreare il medesimo impatto nel lettore, qualora vi siano casi di anisomorfismo. Analizzeremo nel quinto capitolo la terminologia della moda, confrontando il lessico impiegato nel TP con le soluzioni adottate nei TA, e aprendo, inevitabilmente, una parentesi sulla terminologia storica del settore. A compimento del lavoro presenteremo la nostra proposta traduttiva di un capitolo tratto dal saggio Proust et le style di Jean Milly, per mettere in luce, tramite la sua parola autorevole, la genialità e la complessità della scrittura proustiana e, conseguentemente, il compito ardimentoso e ammirevole che è stato richiesto ai traduttori italiani.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel documento vengono principalmente trattati i principali meccanismi per il controllo di flusso per le NoC. Vengono trattati vari schemi di switching, gli stessi schemi associati all'introduzione dei Virtual Channel, alcuni low-level flow control, e due soluzioni per gli end-to-end flow control: Credit Based e CTC (STMicroelectronics). Nel corso della trattazione vengono presentate alcune possibili modifiche a CTC per incrementarne le prestazioni mantenendo la scalabilità che lo contraddistingue: queste sono le "back-to-back request" e "multiple incoming connections". Infine vengono introdotti alcune soluzioni per l'implementazione della qualità di servizio per le reti su chip. Proprio per il supporto al QoS viene introdotto CTTC: una versione di CTC con il supporto alla Time Division Multiplexing su rete Spidergon.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'informazione è alla base della conoscenza umana. Senza, non si potrebbe sapere nulla di ciò che esiste, di ciò che è stato o di quello che potrebbe accadere. Ogni giorno si assimilano moltissime informazioni, che vengono registrate nella propria memoria per essere riutilizzate all'occorrenza. Ne esistono di vari generi, ma il loro insieme va a formare quella che è la cultura, educazione, tradizione e storia dell'individuo. Per questo motivo è importante la loro diffusione e salvaguardia, impedendone la perdita che costerebbe la dipartita di una parte di sé, del proprio passato o del proprio futuro. Al giorno d'oggi le informazioni possono essere acquisite tramite persone, libri, riviste, giornali, la televisione, il Web. I canali di trasmissione sono molti, alcuni più efficaci di altri. Tra questi, internet è diventato un potente strumento di comunicazione, il quale consente l'interazione tra chi naviga nel Web (ossia gli utenti) e una partecipazione attiva alla diffusione di informazioni. Nello specifico, esistono siti (chiamati di microblogging) in cui sono gli stessi utenti a decidere se un'informazione possa essere o meno inserita nella propria pagina personale. In questo caso, si è di fronte a una nuova "gestione dell'informazione", che può variare da utente a utente e può defluire in catene di propagazione (percorsi che compiono i dati e le notizie tra i navigatori del Web) dai risvolti spesso incerti. Ma esiste un modello che possa spiegare l'avanzata delle informazioni tra gli utenti? Se fosse possibile capirne la dinamica, si potrebbe venire a conoscenza di quali sono le informazioni più soggette a propagazione, gli utenti che più ne influenzano i percorsi, quante persone ne vengono a conoscenza o il tempo per cui resta attiva un'informazione, descrivendone una sorta di ciclo di vita. E' possibile nel mondo reale trovare delle caratteristiche ricorrenti in queste propagazioni, in modo da poter sviluppare un metodo universale per acquisirne e analizzarne le dinamiche? I siti di microblogging non seguono regole precise, perciò si va incontro a un insieme apparentemente casuale di informazioni che necessitano una chiave di lettura. Quest'ultima è proprio quella che si è cercata, con la speranza di poter sfruttare i risultati ottenuti nell'ipotesi di una futura gestione dell'informazione più consapevole. L'obiettivo della tesi è quello di identificare un modello che mostri con chiarezza quali sono i passaggi da affrontare nella ricerca di una logica di fondo nella gestione delle informazioni in rete.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Si tratta di uno studio osservazionale analitico di coorte prospettico volto a rilevare disfunzioni neuropsicologiche nei pazienti affetti da epilessia frontale notturna, attraverso una batteria di test che esplora i seguenti domini cognitivi: intelligenza generale, memoria, linguaggio, funzioni esecutive, attenzione, vigilanza, tempi di reazione, percezione della qualità della vita ed eventuale presenza di sintomi psichiatrici. Lo studio ha un follow up medio di 20 anni e riporta, per la prima volta in letteratura, l’evoluzione clinica dei soggetti che hanno avuto un esordio dell’epilessia in età evolutiva. Fino ad ora, l’epilessia frontale notturna è stata associata a disfunzioni cognitive nei soli casi di famiglie affette e nelle quali è stato possibile rilevare il difetto genetico. Questo studio ha rilevato la prevalenza di disturbi cognitivi e psichici in un campione di 24 soggetti affetti, mediante la somministrazione di una batteria di test specifica. I risultati sono stati analizzati con il programma statistico SPSS. Tutti i soggetti presentano abilità cognitive inferiori alla media in uno o più test ma il quoziente intellettivo risulta normale nei tre quarti del campione. Il ritardo mentale è più frequente e più grave nei soggetti idiopatici rispetto a quelli con alterazioni morfologiche frontali rilevate alla risonanza magnetica. Sono risultati più frequenti i disturbi della memoria, soprattutto quella a lungo termine e del linguaggio rispetto a quelli di tipo disesecutivo. Tutti i soggetti, che non hanno ottenuto un controllo delle crisi, manifestano una percezione della qualità della vita inferiore alla media. E’ stata valutata l’influenza delle variabili cliniche (età di esordio dell’epilessia, frequenza e semeiologia delle crisi, durata della malattia e terapia antiepilettica), le anomalie elettroencefalografiche e le anomalie rilevate alla risonanza magnetica. Le variabili che sono in rapporto con un maggiore numero di disfunzioni neuropsicologiche sono: l’elevata frequenza di crisi all’esordio, l’associazione con crisi in veglia, la presenza di crisi parziali secondariamente generalizzate e l’assunzione di una politerapia. I disturbi psichici prevalgono nei soggetti con anomalie elettroencefalografiche frontali sinistre. I dati neuropsicologici suggeriscono una disfunzione cognitiva prevalentemente fronto-temporale e, assieme ai dati clinici ed elettroencefalografici, sembrano confermare l’origine mesiale e orbitale frontale delle anomalie epilettiche nell’epilessia frontale notturna.