1000 resultados para Solare termico, Struttura alberghiera
Resumo:
Il metodo Hartree-Fock permette di determinare approssimativamente la funzione d'onda e l'energia per atomi a più elettroni in uno stato stazionario. Più in generale, si applica a sistemi quantistici a N-corpi, per studiare, ad esempio, gli elettroni nelle molecole e nei solidi. Il punto di partenza di questo metodo è il modello della particella indipendente; sotto questa ipotesi, ogni elettrone del sistema è descritto dalla propria funzione d'onda. Il contributo di D. R. Hartree allo studio della struttura di atomi complessi consiste nell'aver formulato le equazioni per le funzioni d'onda dei singoli elettroni usando argomentazioni intuitive e nell'avere inoltre proposto, per la loro risoluzione, una procedura iterativa basata sul requisito di autoconsistenza. La generalizzazione del suo metodo, che tiene conto del requisito di antisimmetria imposto dal principio di esclusione di Pauli, fu formulata da V. A. Fock e J. C. Slater. Con tale tecnica si assume che la funzione d'onda totale a N-elettroni sia un determinante di Slater, ovvero un prodotto antisimmetrico di orbitali relativi a singoli elettroni. Il determinante di Slater ottimale si ottiene usando il metodo variazionale per individuare i migliori spin-orbitali.
Resumo:
Uno degli aspetti più influenti sulla qualità chimica e biologica dell’acqua di laghi e invasi, caratteristico del bacino di Ridracoli, è rappresentato dalla stratificazione termica, un processo di formazione di volumi d’acqua a diversa densità che può verificarsi allorquando, in alcune circostanze e, nello specifico, durante la stagione estiva, si instauri una condizione stabile in cui l’acqua riscaldata dalla radiazione solare sovrasta quella più fredda e densa del fondo. Una delle conseguenze di tali variazioni termiche è che esse inducono cambiamenti nei livelli di ossigeno disciolto, favorendo l’instaurarsi di processi di degradazione anaerobica della materia organica e determinando la formazione di un chimismo ostile per l’attività biologica. I cicli stagionali, redox-dipendenti, di Ferro e Manganese tra la colonna d’acqua e i sedimenti sono caratteristici di questi ambienti ed una loro risospensione in forma disciolta è stato rilevato nell’ipolimnio dell’invaso di Ridracoli, stagionalmente anossico. Questo studio, collocato all’interno di un ampio progetto finanziato da Romagna Acque Società delle Fonti S.p.A. con la Facoltà di Scienze Ambientali – Campus di Ravenna ed il CNR-ISMAR, si è posto come obiettivo l’individuazione dei fattori che controllano la distribuzione e la mobilità degli elementi chimici all’interno del sistema acqua-sedimento dell’invaso di Ridracoli ed è articolato in tre diverse fasi: • Indagine della composizione chimica del sedimento; • Analisi ed interpretazione della composizione chimica delle acque interstiziali • Stima del flussi attraverso l’interfaccia acqua-sedimento mediante l’utilizzo di una camera bentica e l’applicazione della prima legge di Fick sulla diffusione. Al termine del lavoro è stato possibile ricostruire un quadro diagenetico generale contraddistinto da una deplezione degli accettori di elettroni principali (O2 e NO3-) entro i primi millimetri di sedimento, da un consumo immediato di SO42- e da una graduale riduzione degli ossidi di Mn (IV) e Fe (III), con formazione di gradienti negativi ed il rilascio di sostanze disciolte nella colonna d’acqua.
Resumo:
1944/1945 wurde in Cham-Hagendorn eine Wassermühle ausgegraben, die dank ihrer aussergewöhnlich guten Holzerhaltung seit langem einen prominenten Platz in der Forschung einnimmt. 2003 und 2004 konnte die Kantonsarchäologie Zug den Platz erneut archäologisch untersuchen. Dabei wurden nicht nur weitere Reste der Wassermühle, sondern auch Spuren älterer und jüngerer Anlagen geborgen: eine ältere und eine jüngere Schmiedewerkstatt (Horizont 1a/Horizont 3) sowie ein zweiphasiges Heiligtum (Horizonte 1a/1b). All diese Anlagen lassen sich nun in das in den neuen Grabungen erkannte stratigraphische Gerüst einhängen (s. Beil. 2). Dank der Holzerhaltung können die meisten Phasen dendrochronologisch datiert werden (s. Abb. 4.1/1a): Horizont 1a mit Schlagdaten zwischen 162(?)/173 und 200 n. Chr., Horizont 1b um 215/218 n. Chr. und Horizont 2 um 231 n. Chr. Ferner konnten in den neuen Grabungen Proben für mikromorphologische und archäobotanische Untersuchungen entnommen werden (Kap. 2.2; 3.11). In der vorliegenden Publikation werden der Befund und die Baustrukturen vorgelegt, (Kap. 2), desgleichen sämtliche stratifizierten Funde und eine umfassende Auswahl der 1944/1945 geborgenen Funde (Kap. 3). Dank anpassender Fragmente, sog. Passscherben, lassen sich diese zum Teil nachträglich in die Schichtenabfolge einbinden. Die mikromorphologischen und die archäobotanischen Untersuchungen (Kap. 2.2; 3.11) zeigen, dass der Fundplatz in römischer Zeit inmitten einer stark vom Wald und dem Fluss Lorze geprägten Landschaft lag. In unmittelbarer Nähe können weder eine Siedlung noch einzelne Wohnbauten gelegen haben. Die demnach nur gewerblich und sakral genutzten Anlagen standen an einem Bach, der vermutlich mit jenem Bach identisch ist, der noch heute das Groppenmoos entwässert und bei Cham-Hagendorn in die Lorze mündet (s. Abb. 2.4/1). Der antike Bach führte wiederholt Hochwasser ─ insgesamt sind fünf grössere Überschwemmungsphasen auszumachen (Kap. 2.2; 2.4). Wohl anlässlich eines Seehochstandes durch ein Überschwappen der Lorze in den Bach ausgelöst, müssen diese Überschwemmungen eine enorme Gewalt entwickelt haben, der die einzelnen Anlagen zum Opfer fielen. Wie die Untersuchung der Siedlungslandschaft römischer Zeit rund um den Zugersee wahrscheinlich macht (Kap. 6 mit Abb. 6.2/2), dürften die Anlagen von Cham-Hagendorn zu einer in Cham-Heiligkreuz vermuteten Villa gehören, einem von fünf grösseren Landgütern in diesem Gebiet. Hinweise auf Vorgängeranlagen fehlen, mit denen die vereinzelten Funde des 1. Jh. n. Chr. (Kap. 4.5) in Verbindung gebracht werden könnten. Diese dürften eher von einer der Überschwemmungen bachaufwärts weggerissen und nach Cham-Hagendorn eingeschwemmt worden sein. Die Nutzung des Fundplatzes (Horizont 1a; s. Beil. 6) setzte um 170 n. Chr. mit einer Schmiedewerkstatt ein (Kap. 2.5.1). Der Fundanfall, insbesondere die Schmiedeschlacken (Kap. 3.9) belegen, dass hier nur hin und wieder Geräte hergestellt und repariert wurden (Kap. 5.2). Diese Werkstatt war vermutlich schon aufgelassen und dem Verfall preisgegeben, als man 200 n. Chr. (Kap. 4.2.4) auf einer Insel zwischen dem Bach und einem Lorzearm ein Heiligtum errichtete (Kap. 5.3). Beleg für den sakralen Status dieser Insel ist in erster Linie mindestens ein eigens gepflanzter Pfirsichbaum, nachgewiesen mit Pollen, einem Holz und über 400 Pfirsichsteinen (Kap. 3.11). Die im Bach verlaufende Grenze zwischen dem sakralen Platz und der profanen Umgebung markierte man zusätzlich mit einer Pfahlreihe (Kap. 2.5.3). In diese war ein schmaler Langbau integriert (Kap. 2.5.2), der an die oft an Temenosmauern antiker Heiligtümer angebauten Portiken erinnert und wohl auch die gleiche Funktion wie diese gehabt hatte, nämlich das Aufbewahren von Weihegaben und Kultgerät (Kap. 5.3). Das reiche Fundmaterial, das sich in den Schichten der ersten Überschwemmung fand (s. Abb. 5./5), die um 205/210 n. Chr. dieses Heiligtum zerstört hatte, insbesondere die zahlreiche Keramik (Kap. 3.2.4), und die zum Teil auffallend wertvollen Kleinfunde (Kap. 3.3.3), dürften zum grössten Teil einst in diesem Langbau untergebracht gewesen sein. Ein als Glockenklöppel interpretiertes, stratifiziertes Objekt spricht dafür, dass die fünf grossen, 1944/1945 als Stapel aufgefundenen Eisenglocken vielleicht auch dem Heiligtum zuzuweisen sind (Kap. 3.4). In diesen Kontext passen zudem die überdurchschnittlich häufig kalzinierten Tierknochen (Kap. 3.10). Nach der Überschwemmung befestigte man für 215 n. Chr. (Kap. 4.2.4) das unterspülte Bachufer mit einer Uferverbauung (Kap. 2.6.1). Mit dem Bau eines weiteren, im Bach stehenden Langbaus (Kap. 2.6.2) stellte man 218 n. Chr. das Heiligtum auf der Insel in ähnlicher Form wieder her (Horizont 1b; s. Beil. 7). Von der Pfahlreihe, die wiederum die sakrale Insel von der profanen Umgebung abgrenzte, blieben indes nur wenige Pfähle erhalten. Dennoch ist der sakrale Charakter der Anlage gesichert. Ausser dem immer noch blühenden Pfirsichbaum ist es ein vor dem Langbau aufgestelltes Ensemble von mindestens 23 Terrakottafigurinen (s. Abb. 3.6/1), elf Veneres, zehn Matres, einem Jugendlichen in Kapuzenmantel und einem kindlichen Risus (Kap. 3.6; s. auch Kap. 2.6.3). In den Sedimenten der zweiten Überschwemmung, der diese Anlage um 225/230 n. Chr. zum Opfer gefallen war, fanden sich wiederum zahlreiche Keramikgefässe (Kap. 3.2.4) und zum Teil wertvolle Kleinfunde wie eine Glasperle mit Goldfolie (Kap. 3.8.2) und eine Fibel aus Silber (Kap. 3.3.3), die wohl ursprünglich im Langbau untergebracht waren (Kap. 5.3.2 mit Abb. 5/7). Weitere Funde mit sicherem oder möglichem sakralem Charakter finden sich unter den 1944/1945 geborgenen Funden (s. Abb. 5/8), etwa ein silberner Fingerring mit Merkurinschrift, ein silberner Lunula-Anhänger, eine silberne Kasserolle (Kap. 3.3.3), eine Glasflasche mit Schlangenfadenauflage (Kap. 3.8.2) und einige Bergkristalle (Kap. 3.8.4). Im Bereich der Terrakotten kamen ferner mehrere Münzen (Kap. 3.7) zum Vorschein, die vielleicht dort niedergelegt worden waren. Nach der zweiten Überschwemmung errichtete man um 231 n. Chr. am Bach eine Wassermühle (Horizont 2; Kap. 2.7; Beil. 8; Abb. 2.7/49). Ob das Heiligtum auf der Insel wieder aufgebaut oder aufgelassen wurde, muss mangels Hinweisen offen bleiben. Für den abgehobenen Zuflusskanal der Wassermühle verwendete man mehrere stehen gebliebene Pfähle der vorangegangenen Anlagen der Horizonte 1a und 1b. Obwohl die Wassermühle den 28 jährlichen Überschwemmungshorizonten (Kap. 2.2) und den Funden (Kap. 4.3.2; 4.4.4; 45) zufolge nur bis um 260 n. Chr., während gut einer Generation, bestand, musste sie mindestens zweimal erneuert werden – nachgewiesen sind drei Wasserräder, drei Mühlsteinpaare und vermutlich drei Podeste, auf denen jeweils das Mahlwerk ruhte. Grund für diese Umbauten war wohl der weiche, instabile Untergrund, der zu Verschiebungen geführt hatte, so dass das Zusammenspiel von Wellbaum bzw. Sternnabe und Übersetzungsrad nicht mehr funktionierte und das ganze System zerbrach. Die Analyse von Pollen aus dem Gehhorizont hat als Mahlgut Getreide vom Weizentyp nachgewiesen (Kap. 3.11.4). Das Abzeichen eines Benefiziariers (Kap. 3.3.2 mit Abb. 3.3/23,B71) könnte dafür sprechen, dass das verarbeitete Getreide zumindest zum Teil für das römische Militär bestimmt war (s. auch Kap. 6.2.3). Ein im Horizont 2 gefundener Schreibgriffel und weitere stili sowie eine Waage für das Wägen bis zu 35-40 kg schweren Waren aus dem Fundbestand von 1944/1945 könnten davon zeugen, dass das Getreide zu wägen und zu registrieren war (Kap. 3.4.2). Kurz nach 260 n. Chr. fiel die Wassermühle einem weiteren Hochwasser zum Opfer. Für den folgenden Horizont 3 (Beil. 9) brachte man einen Kiesboden ein und errichtete ein kleines Gebäude (Kap. 2.8). Hier war wohl wiederum eine Schmiede untergebracht, wie die zahlreichen Kalottenschlacken belegen (Kap. 3.9), die im Umfeld der kleinen Baus zum Vorschein kamen. Aufgrund der Funde (Kap. 4.4.4; 4.5) kann diese Werkstatt nur kurze Zeit bestanden haben, höchstens bis um 270 n. Chr., bevor sie einem weiteren Hochwasser zum Opfer fiel. Von der jüngsten Anlage, die wohl noch in römische Zeit datiert (Horizont 4; Beil. 10), war lediglich eine Konstruktion aus grossen Steinplatten zu fassen (Kap. 2.9.1). Wozu sie diente, muss offen bleiben. Auch der geringe Fundanfall spricht dafür, dass die Nutzung des Platzes, zumindest für die römische Zeit, allmählich ein Ende fand (Kap. 4.5). Zu den jüngsten Strukturen gehören mehrere Gruben (Kap. 2.9.2), die vielleicht der Lehmentnahme dienten. Mangels Funden bleibt ihre Datierung indes ungewiss. Insbesondere wissen wir nicht, ob sie noch in römische Zeit datieren oder jünger sind. Spätestens mit der fünften Überschwemmung, die zur endgültigen Verlandung führte und wohl schon in die frühe Neuzeit zu setzen ist, wurde der Platz aufgelassen und erst mit dem Bau der bestehenden Fensterfabrik Baumgartner wieder besetzt.
Resumo:
Fil: Solare, Juan María.
Resumo:
Se describe una metodologia basada en el estudio de la oferta de biomasa forestal y la demanda energética de un determinado municipio, para buscar el mejor aprovechamiento energético termico que facilite el desarrollo de una determinada región
Resumo:
La aplicación de las estrategias que promuevan la eficiencia energética y la sostenibilidad en el sector de la construcción es una tarea de fundamental importancia que estamos llamados a llevar a cabo como ciudadanos, profesionales e investigadores. Esta tesis doctoral se enmarca dentro de los trabajos de investigación llevados a cabo en los últimos años que, en la línea más general de analizar sistemas a la vez energéticamente eficientes y beneficiosos para la mejora del confort de los usuarios, se han centrado en la caracterización de los efectos sobre edificios y medioambiente derivados de la aplicación de fachadas vegetales en el ámbito arquitectónico. La investigación parte del análisis del papel que las envolventes vegetales han tenido en relación a la arquitectura a lo largo de la Historia, para luego examinar su papel actual que, más allá de su reconocido valor estético, cada vez más cobra una función arquitectónica propia. Prueba de ello es la creciente integración de las superficies vegetales experimentada en los últimos años tanto en entornos arquitectónicos como urbanos; reflejo, a su vez, del desarrollo gradual de nuevas investigaciones sobre fachadas vegetales y de la difusión de diferentes sistemas en el mercado. Tras realizar un análisis detallado de los resultados obtenidos hasta el momento en el campo de la investigación y una vez detectadas sus carencias, se procede a plantear el objetivo general de esta tesis: analizar el comportamiento térmico de una solución constructiva que incorpore un elemento vegetal, a través de la monitorización de un prototipo experimental a escala real, así como, generar una herramienta flexible que permita predecir el comportamiento térmico de determinados tipos de fachadas vegetales, posibilitando su utilización en contextos diferentes al de estudio. Con el fin de elegir el sistema de fachada vegetal más adecuado para el estudio experimental, se realizan un análisis y una catalogación de los sistemas de fachadas vegetales existentes en el mercado. Para cada sistema, se destacan las principales características, las ventajas y los inconvenientes. Para evaluar la aplicabilidad del sistema a gran escala, se fijan unos criterios de selección basados en el grado de industrialización, la eficiencia energética y la sostenibilidad. Finalmente, se elige el sistema más adecuado para el estudio experimental: sistema con elementos modulares industrializados prevegetados compuestos por cajas contenedoras de sustrato y vegetación perenne. Como siguiente paso, se procede al diseño del experimento y se da comienzo a la fase experimental que comprende más de tres años, distinguiéndose dos etapas. En ambas, la experimentación se basa en la comparación de dos cerramientos idénticos cuya única diferencia está constituida por una capa de vegetación existente en uno de ellos. En una primera etapa, a través de un tratamiento estadístico de los datos, se analiza el comportamiento energético de un cerramiento sin aislante con el objetivo de caracterizar térmicamente el elemento vegetal (sustrato más vegetación), eliminado las variables relativas a la composición del cerramiento. En una segunda etapa, se monitoriza un cerramiento con aislante con el fin de verificar la efectividad energética del sistema vegetal en cerramientos aislados. Tras corroborar la eficacia energética de dicho sistema, incluso en cerramientos aislados, se concluye el trabajo con el desarrollo de un modelo de predicción del comportamiento térmico de determinados tipos de fachadas vegetales. El modelo, de rápida y sencilla utilización, permite estimar el comportamiento térmico de una fachada vegetal en función de la temperatura exterior, la humedad relativa del aire en el exterior y la irradiancia global. Dicho modelo, desarrollado a partir de los datos tomados durante la monitorización, ha sido validado experimentalmente mostrando un elevado grado de fiabilidad. ABSTRACT Mettere in atto strategie di promozione dell'e_cienza energetica e della sostenibilità nel settore delle costruzioni è un compito di fondamentale importanza che siamo chiamati a svolgere, come cittadini, professionisti e ricercatori. Questa tesi si colloca all'interno delle ricerche che, nella linea generale di sviluppo di sistemi che siano sia effcienti dal punto di vista energetico sia vantaggiosi dal punto di vista del miglioramento del comfort degli utenti, negli ultimi anni si sono occupate di indagare gli effetti sulle costruzioni e sull'ambiente derivati dall'applicazione di facciate verdi negli edifici. La ricerca si sviluppa partendo dall'analisi del ruolo che coperture e facciate verdi hanno avuto nel corso della storia dell'Architettura per poi giungere ad esaminare il loro ruolo nell'attualit_a: oltre a un roconosciuto valore estetico in maniera crescente queste tecnologie sono chiamate a svolgere una funzione architettonica propria. Ciò è dimostrato dalla crescente integrazione di superfici verdi sia a livello architettonico sia a livello urbano registrata negli ultimi anni, che è a sua volta conseguenza del graduale sviluppo di nuove ricerche sulle facciate verdi e della diffusione nel mercato di differenti sistemi. Dopo aver realizzato un'analisi dettagliata dei risultati ottenuti finora nel campo della ricerca e una volta individuate le loro carenze, si procede a fissare l'obiettivo generale di questa tesi: analizzare il comportamento termico di una soluzione costruttiva che incorpora un elemento di vegetale attraverso il monitoraggio di un prototipo sperimentale in scala reale, così come generare uno strumento essibile che consenta di prevedere il comportamento termico di alcuni tipi di facciate verdi, possibilitando il suo uso in contesti diversi da quello studiato. Al fine di scegliere il sistema di facciata verde pi_u adatto allo studio sperimentale, si effettua un'analisi e una catalogazione dei sistemi attualmente esistenti nel mercato. Per ogni sistema si mettono in evidenza le sue principali caratteristiche, i vantaggi e gli svantaggi, e si fissano criteri di selezione basati sul livello di industrializzazione del sistema, sulla sua efficienza energetica e sulla sostenibilità, con il fine ultimo di promuovere l'applicabilità del sistema a larga scala. Infine, si sceglie il sistema più adeguato per lo studio sperimentale: il sistema industrializzato modulare composto da pannelli prevegetati con substrato e vegetazione perenne. Come passo successivo, si procede allo sviluppo dell'esperimento e si dà inizio alla sperimentazione, composta da due fasi, che si sviluppa durante più di tre anni. In entrambe le fasi, la sperimentazione si basa sul confronto di due serramenti identici la cui unica differenza è costituita dallo strato di vegetazione presente in uno di essi. Nella prima fase, attraverso un trattamento statistico dei dati, si analizza il comportamento energetico di un involucro non isolato per caratterizzare termicamente l'elemento vegetale (vegetazione più substrato), eliminando le variabili relative alla composizione del serramento. Nella seconda fase, si studia un involucro isolato con il fine di verificare l'efficacia energetica del sistema verde in serramenti isolati. Dopo aver dimostrato che il sistema è effciente anche quando applicato in involucri isolati, il lavoro si conclude con lo sviluppo di un modello predittivo del comportamento termico di alcuni tipi di facciate verdi. Il modello, veloce e di semplice utilizzo, permette la stima del comportamento termico di una facciata verde conoscendo la temperatura esterna, l'umidità relativa esterna e l'irradianza globale. Questo modello, sviluppato a partire da dati di monitoraggio, è stato validato sperimentalmente mostrando un elevato grado di precisione.
Resumo:
El objeto de esta Tesis doctoral es el desarrollo de una metodologia para la deteccion automatica de anomalias a partir de datos hiperespectrales o espectrometria de imagen, y su cartografiado bajo diferentes condiciones tipologicas de superficie y terreno. La tecnologia hiperespectral o espectrometria de imagen ofrece la posibilidad potencial de caracterizar con precision el estado de los materiales que conforman las diversas superficies en base a su respuesta espectral. Este estado suele ser variable, mientras que las observaciones se producen en un numero limitado y para determinadas condiciones de iluminacion. Al aumentar el numero de bandas espectrales aumenta tambien el numero de muestras necesarias para definir espectralmente las clases en lo que se conoce como Maldicion de la Dimensionalidad o Efecto Hughes (Bellman, 1957), muestras habitualmente no disponibles y costosas de obtener, no hay mas que pensar en lo que ello implica en la Exploracion Planetaria. Bajo la definicion de anomalia en su sentido espectral como la respuesta significativamente diferente de un pixel de imagen respecto de su entorno, el objeto central abordado en la Tesis estriba primero en como reducir la dimensionalidad de la informacion en los datos hiperespectrales, discriminando la mas significativa para la deteccion de respuestas anomalas, y segundo, en establecer la relacion entre anomalias espectrales detectadas y lo que hemos denominado anomalias informacionales, es decir, anomalias que aportan algun tipo de informacion real de las superficies o materiales que las producen. En la deteccion de respuestas anomalas se asume un no conocimiento previo de los objetivos, de tal manera que los pixeles se separan automaticamente en funcion de su informacion espectral significativamente diferenciada respecto de un fondo que se estima, bien de manera global para toda la escena, bien localmente por segmentacion de la imagen. La metodologia desarrollada se ha centrado en la implicacion de la definicion estadistica del fondo espectral, proponiendo un nuevo enfoque que permite discriminar anomalias respecto fondos segmentados en diferentes grupos de longitudes de onda del espectro, explotando la potencialidad de separacion entre el espectro electromagnetico reflectivo y emisivo. Se ha estudiado la eficiencia de los principales algoritmos de deteccion de anomalias, contrastando los resultados del algoritmo RX (Reed and Xiaoli, 1990) adoptado como estandar por la comunidad cientifica, con el metodo UTD (Uniform Targets Detector), su variante RXD-UTD, metodos basados en subespacios SSRX (Subspace RX) y metodo basados en proyecciones de subespacios de imagen, como OSPRX (Orthogonal Subspace Projection RX) y PP (Projection Pursuit). Se ha desarrollado un nuevo metodo, evaluado y contrastado por los anteriores, que supone una variacion de PP y describe el fondo espectral mediante el analisis discriminante de bandas del espectro electromagnetico, separando las anomalias con el algortimo denominado Detector de Anomalias de Fondo Termico o DAFT aplicable a sensores que registran datos en el espectro emisivo. Se han evaluado los diferentes metodos de deteccion de anomalias en rangos del espectro electromagnetico del visible e infrarrojo cercano (Visible and Near Infrared-VNIR), infrarrojo de onda corta (Short Wavelenght Infrared-SWIR), infrarrojo medio (Meadle Infrared-MIR) e infrarrojo termico (Thermal Infrared-TIR). La respuesta de las superficies en las distintas longitudes de onda del espectro electromagnetico junto con su entorno, influyen en el tipo y frecuencia de las anomalias espectrales que puedan provocar. Es por ello que se han utilizado en la investigacion cubos de datos hiperepectrales procedentes de los sensores aeroportados cuya estrategia y diseno en la construccion espectrometrica de la imagen difiere. Se han evaluado conjuntos de datos de test de los sensores AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) y MASTER (MODIS/ASTER Simulator). Se han disenado experimentos sobre ambitos naturales, urbanos y semiurbanos de diferente complejidad. Se ha evaluado el comportamiento de los diferentes detectores de anomalias a traves de 23 tests correspondientes a 15 areas de estudio agrupados en 6 espacios o escenarios: Urbano - E1, Semiurbano/Industrial/Periferia Urbana - E2, Forestal - E3, Agricola - E4, Geologico/Volcanico - E5 y Otros Espacios Agua, Nubes y Sombras - E6. El tipo de sensores evaluados se caracteriza por registrar imagenes en un amplio rango de bandas, estrechas y contiguas, del espectro electromagnetico. La Tesis se ha centrado en el desarrollo de tecnicas que permiten separar y extraer automaticamente pixeles o grupos de pixeles cuya firma espectral difiere de manera discriminante de las que tiene alrededor, adoptando para ello como espacio muestral parte o el conjunto de las bandas espectrales en las que ha registrado radiancia el sensor hiperespectral. Un factor a tener en cuenta en la investigacion ha sido el propio instrumento de medida, es decir, la caracterizacion de los distintos subsistemas, sensores imagen y auxiliares, que intervienen en el proceso. Para poder emplear cuantitativamente los datos medidos ha sido necesario definir las relaciones espaciales y espectrales del sensor con la superficie observada y las potenciales anomalias y patrones objetivos de deteccion. Se ha analizado la repercusion que en la deteccion de anomalias tiene el tipo de sensor, tanto en su configuracion espectral como en las estrategias de diseno a la hora de registrar la radiacion prodecente de las superficies, siendo los dos tipos principales de sensores estudiados los barredores o escaneres de espejo giratorio (whiskbroom) y los barredores o escaneres de empuje (pushbroom). Se han definido distintos escenarios en la investigacion, lo que ha permitido abarcar una amplia variabilidad de entornos geomorfologicos y de tipos de coberturas, en ambientes mediterraneos, de latitudes medias y tropicales. En resumen, esta Tesis presenta una tecnica de deteccion de anomalias para datos hiperespectrales denominada DAFT en su variante de PP, basada en una reduccion de la dimensionalidad proyectando el fondo en un rango de longitudes de onda del espectro termico distinto de la proyeccion de las anomalias u objetivos sin firma espectral conocida. La metodologia propuesta ha sido probada con imagenes hiperespectrales reales de diferentes sensores y en diferentes escenarios o espacios, por lo tanto de diferente fondo espectral tambien, donde los resultados muestran los beneficios de la aproximacion en la deteccion de una gran variedad de objetos cuyas firmas espectrales tienen suficiente desviacion respecto del fondo. La tecnica resulta ser automatica en el sentido de que no hay necesidad de ajuste de parametros, dando resultados significativos en todos los casos. Incluso los objetos de tamano subpixel, que no pueden distinguirse a simple vista por el ojo humano en la imagen original, pueden ser detectados como anomalias. Ademas, se realiza una comparacion entre el enfoque propuesto, la popular tecnica RX y otros detectores tanto en su modalidad global como local. El metodo propuesto supera a los demas en determinados escenarios, demostrando su capacidad para reducir la proporcion de falsas alarmas. Los resultados del algoritmo automatico DAFT desarrollado, han demostrado la mejora en la definicion cualitativa de las anomalias espectrales que identifican a entidades diferentes en o bajo superficie, reemplazando para ello el modelo clasico de distribucion normal con un metodo robusto que contempla distintas alternativas desde el momento mismo de la adquisicion del dato hiperespectral. Para su consecucion ha sido necesario analizar la relacion entre parametros biofisicos, como la reflectancia y la emisividad de los materiales, y la distribucion espacial de entidades detectadas respecto de su entorno. Por ultimo, el algoritmo DAFT ha sido elegido como el mas adecuado para sensores que adquieren datos en el TIR, ya que presenta el mejor acuerdo con los datos de referencia, demostrando una gran eficacia computacional que facilita su implementacion en un sistema de cartografia que proyecte de forma automatica en un marco geografico de referencia las anomalias detectadas, lo que confirma un significativo avance hacia un sistema en lo que se denomina cartografia en tiempo real. The aim of this Thesis is to develop a specific methodology in order to be applied in automatic detection anomalies processes using hyperspectral data also called hyperspectral scenes, and to improve the classification processes. Several scenarios, areas and their relationship with surfaces and objects have been tested. The spectral characteristics of reflectance parameter and emissivity in the pattern recognition of urban materials in several hyperspectral scenes have also been tested. Spectral ranges of the visible-near infrared (VNIR), shortwave infrared (SWIR) and thermal infrared (TIR) from hyperspectral data cubes of AHS (Airborne Hyperspectral System), HyMAP Imaging Spectrometer, CASI (Compact Airborne Spectrographic Imager), AVIRIS (Airborne Visible Infrared Imaging Spectrometer), HYDICE (Hyperspectral Digital Imagery Collection Experiment) and MASTER (MODIS/ASTER Simulator) have been used in this research. It is assumed that there is not prior knowledge of the targets in anomaly detection. Thus, the pixels are automatically separated according to their spectral information, significantly differentiated with respect to a background, either globally for the full scene, or locally by the image segmentation. Several experiments on different scenarios have been designed, analyzing the behavior of the standard RX anomaly detector and different methods based on subspace, image projection and segmentation-based anomaly detection methods. Results and their consequences in unsupervised classification processes are discussed. Detection of spectral anomalies aims at extracting automatically pixels that show significant responses in relation of their surroundings. This Thesis deals with the unsupervised technique of target detection, also called anomaly detection. Since this technique assumes no prior knowledge about the target or the statistical characteristics of the data, the only available option is to look for objects that are differentiated from the background. Several methods have been developed in the last decades, allowing a better understanding of the relationships between the image dimensionality and the optimization of search procedures as well as the subpixel differentiation of the spectral mixture and its implications in anomalous responses. In other sense, image spectrometry has proven to be efficient in the characterization of materials, based on statistical methods using a specific reflection and absorption bands. Spectral configurations in the VNIR, SWIR and TIR have been successfully used for mapping materials in different urban scenarios. There has been an increasing interest in the use of high resolution data (both spatial and spectral) to detect small objects and to discriminate surfaces in areas with urban complexity. This has come to be known as target detection which can be either supervised or unsupervised. In supervised target detection, algorithms lean on prior knowledge, such as the spectral signature. The detection process for matching signatures is not straightforward due to the complications of converting data airborne sensor with material spectra in the ground. This could be further complicated by the large number of possible objects of interest, as well as uncertainty as to the reflectance or emissivity of these objects and surfaces. An important objective in this research is to establish relationships that allow linking spectral anomalies with what can be called informational anomalies and, therefore, identify information related to anomalous responses in some places rather than simply spotting differences from the background. The development in recent years of new hyperspectral sensors and techniques, widen the possibilities for applications in remote sensing of the Earth. Remote sensing systems measure and record electromagnetic disturbances that the surveyed objects induce in their surroundings, by means of different sensors mounted on airborne or space platforms. Map updating is important for management and decisions making people, because of the fast changes that usually happen in natural, urban and semi urban areas. It is necessary to optimize the methodology for obtaining the best from remote sensing techniques from hyperspectral data. The first problem with hyperspectral data is to reduce the dimensionality, keeping the maximum amount of information. Hyperspectral sensors augment considerably the amount of information, this allows us to obtain a better precision on the separation of material but at the same time it is necessary to calculate a bigger number of parameters, and the precision lowers with the increase in the number of bands. This is known as the Hughes effects (Bellman, 1957) . Hyperspectral imagery allows us to discriminate between a huge number of different materials however some land and urban covers are made up with similar material and respond similarly which produces confusion in the classification. The training and the algorithm used for mapping are also important for the final result and some properties of thermal spectrum for detecting land cover will be studied. In summary, this Thesis presents a new technique for anomaly detection in hyperspectral data called DAFT, as a PP's variant, based on dimensionality reduction by projecting anomalies or targets with unknown spectral signature to the background, in a range thermal spectrum wavelengths. The proposed methodology has been tested with hyperspectral images from different imaging spectrometers corresponding to several places or scenarios, therefore with different spectral background. The results show the benefits of the approach to the detection of a variety of targets whose spectral signatures have sufficient deviation in relation to the background. DAFT is an automated technique in the sense that there is not necessary to adjust parameters, providing significant results in all cases. Subpixel anomalies which cannot be distinguished by the human eye, on the original image, however can be detected as outliers due to the projection of the VNIR end members with a very strong thermal contrast. Furthermore, a comparison between the proposed approach and the well-known RX detector is performed at both modes, global and local. The proposed method outperforms the existents in particular scenarios, demonstrating its performance to reduce the probability of false alarms. The results of the automatic algorithm DAFT have demonstrated improvement in the qualitative definition of the spectral anomalies by replacing the classical model by the normal distribution with a robust method. For their achievement has been necessary to analyze the relationship between biophysical parameters such as reflectance and emissivity, and the spatial distribution of detected entities with respect to their environment, as for example some buried or semi-buried materials, or building covers of asbestos, cellular polycarbonate-PVC or metal composites. Finally, the DAFT method has been chosen as the most suitable for anomaly detection using imaging spectrometers that acquire them in the thermal infrared spectrum, since it presents the best results in comparison with the reference data, demonstrating great computational efficiency that facilitates its implementation in a mapping system towards, what is called, Real-Time Mapping.
Resumo:
El objetivo de esta tesis es poner de relieve cómo el desarrollo del cálculo de estructuras ha influido en la manera de concebir la forma arquitectónica y qué relaciones se establecen entre estructura (formal) y estructura resistente. Este modo de explicar el hecho arquitectónico, desde la relación arte-estructura, no es el más generalizado. Por lo que profundizar en él podría llegar a enriquecer la manera en la que se comprende la arquitectura. Por tanto, se parte de la base de que la técnica no es sólo un instrumento, un medio del que disponer, sino que es un proceso mediante el cual la abstracción se hace tangible. Con lo que se produce una retroalimentación entre lo universal, es decir, lo abstracto, y lo concreto, o sea, lo real. Además, esta investigación se centra en la estructura resistente, en tanto que se trata del único principio sine qua non de la tríada vitruviana. Sin embargo, no se incurre en el error de pensar que la arquitectura depende únicamente de la tecnología para su desarrollo; hay muchos más condicionantes que intervienen en ella, que van desde la expresión, hasta cuestiones sociológicas. La manera en la que los proyectistas diseñan se desarrolla en paralelo a la evolución de la técnica. Ahora bien, la meta de esta investigación consiste en dilucidar hasta qué punto la voluntad de los arquitectos e ingenieros es independiente de la tecnología. Para ello, se lleva a cabo un análisis desde dos puntos de vista. El primero plantea un desarrollo histórico de la evolución de la teoría del cálculo de estructuras en el que, a través del tiempo, se analizan las repercusiones formales que se han ido derivando de él, tanto en ingeniería, como en arquitectura. Se pretende, así, llevar a cabo una lectura de la historia para entender el presente y proyectar el futuro. La segunda visión que se plantea estudia el modo en el que los historiadores de la arquitectura moderna han entendido la noción de estructura resistente. Dado que se entiende que los críticos de arquitectura inf uyen en la manera de pensar y entender dicha disciplina. Para desarrollarla se tomó como referencia a Panayotis Tournikiotis y su libro La historiografía de la arquitectura moderna. Finalmente, se elabora una lectura transversal de ambos puntos de vista, con la intención de discernir la influencia de la técnica en la génesis de la arquitectura en el siglo XX. En ella se estudian algunos de los ejemplos más importantes de la arquitectura moderna, así como se intentan esclarecer las distintas maneras de proyectar en relación a la estructura resistente. A partir de todo lo anterior se pretende responder a la siguiente pregunta: ¿la manera en que los proyectistas plantean la relación entre estructura (formal) y estructura resistente ha sido la misma a lo largo de la Historia? Podría decirse que no. Dicha relación ha evolucionado desde el empirismo a la invención, pasando por la ciencia. En cada una de esas etapas el entendimiento, no sólo del comportamiento estructural de las construcciones, sino también del Imago Mundi, ha ido variando; lo que se ha plasmado en la relación entre estructura (formal) y estructura resistente en los edificios. RECENSIONE L’obiettivo della presente tesi è mettere in evidenza come lo sviluppo del calcolo strutturale ha inf uenzato il modo di concepire la forma architettonica e, che relazioni si stabiliscono tra struttura (formale) e struttura resistente. Questo modo di spiegare la questione architettonica, partendo dalla relazione arte-struttura, non è il più comune. Quindi, approfondire la ricerca su questo aspetto potrebbe arrivare ad arricchire la maniera in cui si capisce l’architettura. Per tanto, si parte da un principio di base ovvero che la tecnica non è soltanto uno strumento, un medio di cui disporre, ma che è un processo mediante il quale l’astrazione si fa tangibile. Con cui si produce una retroalimentazione tra l’universale, cioè, l’astratto e il concreto, ossia, il reale. Inoltre, questa ricerca si centra nella struttura resistente, in quanto si tratta dell’unico principio sine qua non della triade vitruviana. Eppure, non s’incorre nell’errore di pensare che l’architettura dipenda unicamente della tecnologia per il suo sviluppo; ci sono molti altri condizionanti che intervengono in essa, che vanno dalla espressione f no a questioni sociologiche. La maniera in cui i progettisti disegnano si sviluppa in parallelo alla evoluzione della tecnica. Tuttavia, l’obbiettivo della ricerca consiste nel cercare di chiarire f no che punto la volontà progettuale e ideativa degli architetti e degli ingegneri è indipendente della tecnologia. Per questo, si realizza un’analisi da due punti di vista. Il primo ipotizza uno sviluppo storico dell’evoluzione della teoria del calcolo strutturale in cui, attraverso del tempo, si analizzano le ripercussioni formali che si sono derivate da questo, sia in ingegneria sia in architettura. Si pretende così, realizzare una lettura della storia per capire il presente e progettare il futuro. La seconda visione che s’ ipotizza, studia il modo in cui gli storici dell’architettura moderna hanno capito la nozione di struttura resistente. Poiché si capisce che i critici di architettura inf uiscono nella maniera di pensare e capire questa disciplina. Per svilupparla si prese come riferimento Panayotis Tournikiotis e il suo libro La storiograf a dell’architettura moderna. Finalmente, si elabora una lettura trasversale di ambedue punti di vista, con l’intenzione di discernere l’inf uenza della tecnica nella genesi dell’architettura nel XX secolo. In questa si studiano alcuni degli esempi più importanti dell’architettura moderna, così come si tentano chiarif care le diverse maniere di progettare in relazione alla struttura resistente. Oltretutto quello precedente, si pretende rispondere alla seguente domanda: La maniera in cui i progettisti ipotizzano la relazione tra struttura (formale) e struttura resistente è stata la stessa lungo la storia? Potrebbe dirsi di no. Essa relazione si è evoluta dall’empirismo all’invenzione, passando per la scienza. In ogni una di queste tappe si cerca di comprendere, non soltanto il comportamento strutturale delle costruzioni, ma anche l’aspetto del Imago Mundi. Ció che é cambiato è la coesistenza tra struttura (formale) e struttura resistente negli edifici. ABSTRACT T e objective of this thesis is to highlight how the development of structural analysis has influenced the way of conceiving architectural form and what relationship exists between (formal) structure and resistant structure. T is way of explaining architecture, from the relationship between art and structure, is not the most generalized, which is why increasing our understanding of it can enrich the way in which architecture is understood. Therefore, the basis is that technique is not only an instrument, a medium to have, but rather a process through which abstraction becomes tangible. Because of this, a type of feedback is produced between what is universal, in other words, abstract, and concrete, real. Additionally, this research focuses on resistant structure in that it refers to the unique principal sine qua non of the Vitruvian triad. However, it does not err by accepting the idea that architecture depends only on technology for its development; there are many conditioners which intervene which include everything from expression to sociological issues. T e way in which builders design is developed parallel to the evolution of technique. T e goal of this investigation consists of explaining to what point the will of architects and engineers is independent from technology. For this, an analysis of two points of view is helpful. T e f rst proposes a historical development of the theory of structures in which, through time, formal repercussions that have derived from it, in engineering as well as in architecture, are analyzed. In this way, a historical reading is attempted in order to understand the present and predict the future. T e second vision that is proposed studies the manner in which historians of modern architecture have understood the notion of resistant structure, given that it is understood that the critics of architecture inf uence the way of thinking about and understanding this discipline. In order to develop it, Panayotis Tournikiotis and his book La historiografía de la arquitectura moderna was used as a reference. Finally, a transversal reading of both points of view is done with the intention of discerning the influence of technique in the genesis of architecture in the 20th century. In this reading, several of the most important examples of modern architecture are studied and an attempt is made at shedding light on the different ways of designing in relation to resistant structure. Using the previous discussion, one can attempt to respond to the following question: Has the way in which designers conceive the relationship between (formal) structure and resistant structure been the same throughout history? In fact, the answer is no, this relationship has evolved from empiricism into invention, while incorporating scientific elements. At each of the stages of understanding, structural behavior of constructions as well as that of the Imago Mundi has continually changed, which has been captured in the relationship between (formal) structure and resistant structure in buildings.
Resumo:
Il seguente lavoro si occupa del vincolo di destinazione nei suoi diversi aspetti : la genesi dell'art. 2645-ter del codice civile, la natura giuridica, la struttura, gli elementi essenziali, la casistica ed i soggetti coinvolti
Resumo:
Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.
Resumo:
Metriti ed endometriti sono le patologie maggiormente responsabili delle perdite economiche negli allevamenti bovini da latte, specialmente nel periodo successivo al parto. Mentre le metriti coinvolgono e si sviluppano in tutto l’utero e sono caratterizzate dalla presenza di sintomi sistemici, le endometriti consistono in una infiammazione che riguarda il solo endometrio, con la presenza di perdite purulente, distruzione della superficie epiteliale, congestione vascolare, edema stromale ed accumulo di linfociti e plasmacellule. Queste patologie, inoltre, possono causare, disfunzione ovarica, con conseguente infertilità e riduzione sia dell’efficienza riproduttiva della vacca sia della produzione stessa di latte. Nonostante queste malattie siano, nella maggior parte dei casi, correlate all’instaurarsi di infezioni batteriche, che possono subentrare nell’utero direttamente durante il parto, il ruolo di alcuni virus nello sviluppo di queste patologie è stato recentemente approfondito e la correlazione tra l’ Herpesvirus Bovino 4 e l’insorgere di metriti ed endometriti è stata dimostrata. L’ Herpesvirus Bovino 4 (BoHV-4) è un gamma-herpesvirus ed il suo genoma è costituito da una molecola lineare di DNA a doppio filamento con una struttura genomica di tipo B, caratterizzata dalla presenza di un’unica lunga sequenza centrale (LUR) fiancheggiata da multiple sequenze poli-ripetute (prDNA). BoHV-4 è stato isolato sia da animali sani sia da animali con differenti patologie, tra cui malattie oculari e respiratorie, ma soprattutto da casi di metriti, endometriti, vaginiti o aborti. Generalmente, il ruolo svolto dal virus in questo tipo di patologie è associato alla compresenza di altri tipi di patogeni, che possono essere virus, come nel caso del Virus Della Diarrea Virale Bovina (BVDV), o più frequentemente batteri. Usualmente, l’iniziale difesa dell’endometrio bovino nei confronti dei microbi si fonda sul sistema immunitario innato e l’attivazione di specifici recettori cellulari determina la sintesi e la produzione di citochine e chemochine pro infiammatorie, che possono essere in grado di modulare la replicazione di BoHV-4. Il genoma di BoHV-4 possiede due principali trascritti per i geni Immediate Early (IE), trai quali ORF50/IE2 è il più importante ed il suo prodotto, Rta/ORF50, è fortemente conservato tra tutti gli Herpesvirus. Esso è responsabile della diretta trans-attivazione di numerosi geni virali e cellulari e può essere modulato da differenti stimoli extracellulari. Precedentemente è stato dimostrato come il TNF-, prodotto dalle cellule stromali e dai macrofagi all’interno dell’endometrio, in conseguenza ad infezione batterica, sia in grado di aumentare la replicazione di BoHV-4 attraverso l’attivazione del pathway di NFkB e direttamente agendo sul promotore di IE2. Per queste ragioni, è risultato di forte interesse investigare quali potessero essere, invece, i fattori limitanti la replicazione di BoHV-4. In questo lavoro è stata studiata la relazione tra cellule endometriali stromali bovine infettate con l’Herpesvirus Bovino 4 e l’interferon gamma (IFN-) ed è stata dimostrata la capacità di questa molecola di restringere la replicazione di BoHV-4 in maniera IDO1 indipendente ed IE2 dipendente. Inoltre, la presenza di alcuni elementi in grado di interagire con l’ IFN-γ, all’interno del promotore di IE2 di BoHV-4, ha confermato questa ipotesi. Basandoci su questi dati, abbiamo potuto supporre l’esistenza di uno stretto vincolo tra l’attivazione dell’asse dell’interferon gamma e la ridotta replicazione di BoHV-4, andando a porre le basi per una nuova efficiente cura e prevenzione per le patologie uterine. Poiché il meccanismo corretto attraverso il quale BoHV-4 infetta l’endometrio bovino non è ancora ben compreso, è stato interessante approfondire in maniera più accurata l’interazione presente tra il virus ed il substrato endometriale, analizzando le differenze esistenti tra cellule infettate e non, in termini di espressione genica. Basandoci su dati preliminari ottenuti attraverso analisi con RNA sequencing (RNAseq), abbiamo visto come numerosi geni risultino over-espressi in seguito ad infezione con BoHV-4 e come, tra questi, la Metalloproteasi 1 sia uno dei più interessanti, a causa delle sue possibili implicazioni nello sviluppo delle patologie dell’endometrio uterino bovino. Successive analisi, effettuate tramite westernblotting e real time PCR, sono state in grado di confermare tale dato, sottolineando l’efficacia di un nuovo approccio sperimentale, basato sul RNAseq, per lo studio dell’insorgenza delle patologie.
Resumo:
CysK, uno degli isoenzimi di O-acetilserina sulfidrilasi (OASS) presenti in piante e batteri, è un enzima studiato da molto tempo ed il suo ruolo fisiologico nella sintesi della cisteina è stato ben definito. Recentemente sono state scoperte altre funzioni apparentemente non collegate alla sua funzione enzimatica (moonlighting). Una di queste è l’attivazione di una tossina ad attività tRNAsica, CdiA-CT, coinvolta nel sistema di inibizione della crescita da contatto (CDI) di ceppi patogeni di E. coli. In questo progetto abbiamo studiato il ruolo di CysK nel sistema CDI e la formazione di complessi con due differenti partner proteici: CdiA-CT e CysE (serina acetiltransferasi, l’enzima che catalizza la reazione precedente nella biosintesi della cisteina). I due complessi hanno le stesse caratteristiche spettrofluorimetriche e affinità molto simili, ma la cinetica di raggiungimento dell’equilibrio per il complesso tossina:CysK è più lenta che per il complesso CysE:CysK (cisteina sintasi). In entrambi i casi la formazione veloce di un complesso d’incontro è seguita da un riarrangiamento conformazionale che porta alla formazione di un complesso ad alta affinità. L’efficienza di formazione del complesso cisteina sintasi è circa 200 volte maggiore rispetto al complesso CysK:tossina. Una differenza importante, oltre alla cinetica di formazione dei complessi, è la stechiometria di legame. Infatti mentre CysE riesce a legare solo uno dei due siti attivi del dimero di CysK, nel complesso con CdiA-CT entrambi i siti attivi dell’enzima risultano essere occupati. Le cellule isogeniche esprimono un peptide inibitore della tossina (CdiI), e sono quindi resistenti all’azione tRNAsica. Tuttavia, siccome CdiI non altera la formazione del complesso CdiA-CT:CysK, CdiA-CT può esercitare comunque un ruolo nel metabolismo della cisteina e quindi nella fitness dei batteri isogenici, attraverso il legame e l'inibizione di CysK e la competizione con CysE. La via biosintetica della cisteina, un precursore di molecole riducenti, risulta essere molto importante per i batteri soprattutto in condizioni avverse come all’interno dei macrofagi nelle infezioni persistenti. Perciò questa via metabolica è di interesse per lo sviluppo di nuovi antibiotici, e in particolare le due isoforme dell’OASS negli enterobatteri, CysK e CysM, sono potenziali target per lo sviluppo di nuove molecole ad azione antibatterica. Partendo dall’analisi delle modalità di interazione con CysK del suo partner ed inibitore fisiologico, CysE, si è studiato dapprima l’interazione di pentapeptidi che mimassero la regione C-terminale di quest'ultimo, e in base ai dati ottenuti sono stati sviluppati piccoli ligandi sintetici. La struttura generale di questi composti è costituita da un gruppo acido ed un gruppo lipofilo, separati da un linker ciclopropanico che mantiene questi due gruppi in conformazione trans, ottimale per l’interazione col sito attivo dell’enzima. Sulla base di queste considerazioni, di docking in silico e di dati sperimentali ottenuti con la tecnica dell’STD-NMR e con saggi di binding spettrofluorimetrici, si è potuta realizzare una analisi di relazione struttura-attività che ha portato via via all’ottimizzazione dei ligandi. Il composto più affine che è stato finora ottenuto ha una costante di dissociazione nel range del nanomolare per entrambe le isoforme, ed è un ottimo punto di partenza per lo sviluppo di nuovi farmaci.
Resumo:
Helicobacter pylori è un batterio Gram-negativo in grado di colonizzare la mucosa gastrica umana e persistere per l'intero arco della vita dell'ospite. E' associato a patologie gastrointestinali, quali gastrite cronica, ulcere gastriche e duodenali, adenocarcinomi e linfomi gastrici. Si tratta di uno dei patogeni più diffusi, presente in circa metà della popolazione mondiale, e il solo che si è adattato a vivere nell'ambiente ostile dello stomaco umano. Molteplici sono i fattori di virulenza che permettono al batterio la colonizzazione della nicchia gastrica e contribuiscono, anche attraverso l' induzione di una risposta infiammatoria, a profonde modificazioni dell' omeostasi gastrica. Queste ultime si associano, ad esempio, all'iperproduzione di fattori proinfiammatori, ad alterazioni sia della regolazione della secrezione acida gastrica sia del ciclo cellulare e della morte cellulare programmata (apoptosi) delle cellule epiteliali gastriche, a disordini nel metabolismo del ferro e a carenze di elementi essenziali. Studi sulla diversità genetica di H. pylori osservata in ceppi isolati da varie regioni del mondo, dimostrano che tale batterio ha avuto una coevoluzione col genere umano attraverso la storia, ed è verosimile che H. pylori sia stato un costituente del microbiota gastrico per almeno 50.000 anni. Scopo della tesi è stato quello di identificare e caratterizzare proteine importanti per la colonizzazione e l'adattamento di H. pylori alla nicchia gastrica. In particolare gli sforzi si sono concentrati su due proteine periplasmatiche, la prima coinvolta nella difesa antiossidante (l'enzima catalasi-like, HP0485), e la seconda nel trasporto di nutrienti presenti nell'ambiente dello stomaco all'interno della cellula (la componente solubile di un ABC transporter, HP0298). La strategia utilizzata prevede un'analisi bioinformatica preliminare, l'ottenimento del gene per amplificazione, mediante PCR, dal genoma dell'organismo, la costruzione di un vettore per il clonaggio, l'espressione eterologa in E. coli e la successiva purificazione. La proteina così ottenuta viene caratterizzata mediante diverse tecniche, quali spettroscopia UV, dicroismo circolare, gel filtrazione analitica, spettrometria di massa. Il capitolo 1 contiene un'introduzione generale sul batterio, il capitolo 2 e il capitolo 3 descrivono gli studi relativi alle due proteine e sono entrambi suddivisi in un abstract iniziale, un'introduzione, la presentazione dei risultati, la discussione di questi ultimi, i materiali e i metodi utilizzati. La catalasi-like (HP0485) è una proteina periplasmatica con struttura monomerica, appartenente ad una famiglia di enzimi a funzione per la maggior parte sconosciuta, ma evolutivamente correlati alla ben nota catalasi, attore fondamentale nella difesa di H. pylori, grazie alla sua azione specifica di rimozione dell'acqua ossigenata. HP0485, pur conservando il fold catalasico e il legame al cofattore eme, non può compiere la reazione di dismutazione dell'acqua ossigenata; possiede invece un'attività perossidasica ad ampio spettro, essendo in grado di accoppiare la riduzione del perossido di idrogeno all'ossidazione di diversi substrati. Come la catalasi, lavora ad alte concentrazioni di aqua ossigenata e non arriva a saturazione a concentrazioni molto elevate di questo substrato (200 mM); la velocità di reazione catalizzata rimane lineare anche a questi valori, aspetto che la differenzia dalle perossidasi che vengono in genere inattivate da concentrazioni di perossido di idrogeno superiori a 10-50 mM. Queste caratteristiche di versatilità e robustezza suggeriscono che la catalasi-like abbia un ruolo di scavenger dell'acqua ossigenata e probabilmente anche un'altra funzione connessa al suo secondo substrato, ossia l'ossidazione di composti nello spazio periplasmatico cellulare. Oltre alla caratterizzazione dell'attività è descritta anche la presenza di un ponte disolfuro, conservato nelle catalasi-like periplasmatiche, con un ruolo nell'assemblaggio dell'eme per ottenere un enzima attivo e funzionale. La proteina periplasmatica HP0298, componente di un sistema di trasporto ABC, è classificata come trasportatore di dipeptidi e appartiene a una famiglia di proteine in grado di legare diversi substrati, tra cui di- e oligopeptidi, nichel, eme, glutatione. Benchè tutte associate a trasportatori di membrana batterici, queste proteine presentano un dominio di legame al substrato che risulta essere conservato nei domini extracellulari di recettori specifici di mammifero e uomo. Un esempio sono i recettori ionotropici e metabotropici del sistema nervoso. Per caratterizzare questa proteina è stato messo a punto un protocollo di ligand-fishing accoppiato alla spettrometria di massa. La proteina purificata, avente un tag di istidine, è stata incubata con un estratto cellulare di H. pylori per poter interagire con il suo substrato specifico all'interno dell'ambiente naturale in cui avviene il legame. Il complesso proteina-ligando è stato poi purificato per cromatografia di affinità e analizzato mediante HPLC-MS. L'identificazione dei picchi differenziali tra campioni con la proteina e 5 campioni di controllo ha portato alla caratterizzazione di pentapeptidi particolarmente ricchi in aminoacidi idrofobici e con almeno un residuo carico negativamente. Considerando che H. pylori necessita di alcuni aminoacidi essenziali, per la maggior parte idrofobici, e che lo stomaco umano è particolarmente ricco di peptidi prodotti dalla digestione delle proteine introdotte con il cibo, il ruolo fisiologico di HP0298 potrebbe essere l'internalizzazione di peptidi, con caratteristiche specifiche di lunghezza e composizione, che sono naturalmente presenti nella nicchia gastrica.
Resumo:
Questo lavoro analizza le imprese italiane uscite dal mercato tra il 2008 e il 2012 a seguito di una procedura fallimentare o di una liquidazione volontaria e individua le principali caratteristiche aziendali correlate a tale fenomeno. L’analisi econometrica condotta sui bilanci delle società di capitali indica che la probabilità di cessazione dell’attività produttiva è stata maggiore per le aziende più piccole e per quelle di più recente costituzione. A parità di altre caratteristiche delle imprese, come la dimensione, il settore produttivo o l’area in cui esse sono localizzate, l’apertura di una procedura fallimentare è risultata maggiormente correlata a squilibri nella struttura finanziaria, come un elevato leverage, mentre la probabilità di liquidazione è stata influenzata in misura superiore dai bassi livelli di redditività.
Resumo:
O presente estudo é resultado da observação de que, em que pese o incremento do ajuizamento de ações coletivas na Justiça do Trabalho, por meio de ações civis públicas, ainda há outras ações coletivas, destinadas à defesa de direitos metaindividuais, que não vêm recebendo o mesmo tratamento. Em especial, as ações cuja pretensão é a tutela dos atos da Administração Pública, que, no contexto do Estado Democrático de Direito, deve conduzir-se em prol do bem comum e, ainda, da garantia dos direitos sociais reconhecidos constitucionalmente. Analisa-se o cabimento dessa tutela pela via do Judiciário Trabalhista, nas situações em que os fatos constantes nas causas de pedir das respectivas ações sejam atinentes a direitos relacionados ao trabalho. Isso porque, na ocorrência de pontos de interseção entre o ato administrativo e as relações de trabalho, o ramo do Judiciário constitucionalmente vocacionado a analisá-los é o Trabalhista, já que o interesse em questão não configura mero ato administrativo, mas, além disso, revela o modo como o agente estatal compreende e orienta a sua conduta, gerando a valorização ou a desvalorização de direitos trabalhistas consagrados pela Constituição Federal. Com base nesse panorama acerca do papel do Estado brasileiro contemporâneo no que diz respeito à garantia de direitos sociais e do papel do Poder Judiciário no que tange à efetivação desses direitos, bem como procedendo ao exame da natureza desses direitos, que requerem novas posturas dos operadores do direito, este trabalho se propõe a afastar concepções antigas relacionadas a argumentos de suposta violação à separação de poderes e de indevida interferência em políticas públicas. Com isso, considerando que o Poder Judiciário tem no processo seu locus de manifestação, abordam-se as principais características do processo coletivo, visando à sua diferenciação em relação ao processo individual, em face da natureza dos direitos que compõem o seu objeto. Com o foco no fortalecimento do Judiciário Trabalhista e aperfeiçoamento do Estado Democrático de Direito, ingressa-se na seara das ações populares e de improbidade administrativa, refinando-se a aplicabilidade delas a atos praticados pela Administração Pública que repercutem na esfera trabalhista. Adota-se como premissa a nova conformação dos limites da competência da Justiça do Trabalho que não mais se restringe a lides de natureza individual ou coletiva entre trabalhadores e seus tomadores de serviço, conformação essa introduzida pela Emenda Constitucional no 45/2004 para defender-se que a consecução do bem comum, levada a efeito com a observância aos princípios regentes da Administração, desafia uma nova visão, especializada no valor social do trabalho, inclusive no que se refere à qualidade dos serviços públicos. As questões apontadas possibilitam concluir sobre a necessidade de se instituir concretamente os conteúdos axiológicos e não meramente patrimoniais que compõem o patrimônio público social, em especial o valor social do trabalho, preservando-o ou restituindo-o à coletividade, por meio de ações populares e de improbidade administrativa ajuizadas perante a Justiça do Trabalho. A pesquisa mostra que se alarga a garantia ao cidadão no que tange ao uso dos valores e recursos públicos para a promoção do bem comum e a evolução da coletividade.