949 resultados para ON-SI
Resumo:
Mitochondria have a central role in energy supply in cells, ROS production and apoptosis and have been implicated in several human disease and mitochondrial dysfunctions in hypoxia have been related with disorders like Type II Diabetes, Alzheimer Disease, inflammation, cancer and ischemia/reperfusion in heart. When oxygen availability becomes limiting in cells, mitochondrial functions are modulated to allow biologic adaptation. Cells exposed to a reduced oxygen concentration readily respond by adaptive mechanisms to maintain the physiological ATP/ADP ratio, essential for their functions and survival. In the beginning, the AMP-activated protein kinase (AMPK) pathway is activated, but the responsiveness to prolonged hypoxia requires the stimulation of hypoxia-inducible factors (HIFs). In this work we report a study of the mitochondrial bioenergetics of primary cells exposed to a prolonged hypoxic period . To shine light on this issue we examined the bioenergetics of fibroblast mitochondria cultured in hypoxic atmospheres (1% O2) for 72 hours. Here we report on the mitochondrial organization in cells and on their contribution to the cellular energy state. Our results indicate that prolonged hypoxia cause a significant reduction of mitochondrial mass and of the quantity of the oxidative phosphorylation complexes. Hypoxia is also responsible to damage mitochondrial complexes as shown after normalization versus citrate synthase activity. HIF-1α plays a pivotal role in wound healing, and its expression in the multistage process of normal wound healing has been well characterized, it is necessary for cell motility, expression of angiogenic growth factor and recruitment of endothelial progenitor cells. We studied hypoxia in the pathological status of diabetes and complications of diabetes and we evaluated the combined effect of hyperglycemia and hypoxia on human dermal fibroblasts (HDFs) and human dermal micro-vascular endothelial cells (HDMECs) that were grown in high glucose, low glucose concentrations and mannitol as control for the osmotic challenge.
Resumo:
Microprocessori basati su singolo processore (CPU), hanno visto una rapida crescita di performances ed un abbattimento dei costi per circa venti anni. Questi microprocessori hanno portato una potenza di calcolo nell’ordine del GFLOPS (Giga Floating Point Operation per Second) sui PC Desktop e centinaia di GFLOPS su clusters di server. Questa ascesa ha portato nuove funzionalità nei programmi, migliori interfacce utente e tanti altri vantaggi. Tuttavia questa crescita ha subito un brusco rallentamento nel 2003 a causa di consumi energetici sempre più elevati e problemi di dissipazione termica, che hanno impedito incrementi di frequenza di clock. I limiti fisici del silicio erano sempre più vicini. Per ovviare al problema i produttori di CPU (Central Processing Unit) hanno iniziato a progettare microprocessori multicore, scelta che ha avuto un impatto notevole sulla comunità degli sviluppatori, abituati a considerare il software come una serie di comandi sequenziali. Quindi i programmi che avevano sempre giovato di miglioramenti di prestazioni ad ogni nuova generazione di CPU, non hanno avuto incrementi di performance, in quanto essendo eseguiti su un solo core, non beneficiavano dell’intera potenza della CPU. Per sfruttare appieno la potenza delle nuove CPU la programmazione concorrente, precedentemente utilizzata solo su sistemi costosi o supercomputers, è diventata una pratica sempre più utilizzata dagli sviluppatori. Allo stesso tempo, l’industria videoludica ha conquistato una fetta di mercato notevole: solo nel 2013 verranno spesi quasi 100 miliardi di dollari fra hardware e software dedicati al gaming. Le software houses impegnate nello sviluppo di videogames, per rendere i loro titoli più accattivanti, puntano su motori grafici sempre più potenti e spesso scarsamente ottimizzati, rendendoli estremamente esosi in termini di performance. Per questo motivo i produttori di GPU (Graphic Processing Unit), specialmente nell’ultimo decennio, hanno dato vita ad una vera e propria rincorsa alle performances che li ha portati ad ottenere dei prodotti con capacità di calcolo vertiginose. Ma al contrario delle CPU che agli inizi del 2000 intrapresero la strada del multicore per continuare a favorire programmi sequenziali, le GPU sono diventate manycore, ovvero con centinaia e centinaia di piccoli cores che eseguono calcoli in parallelo. Questa immensa capacità di calcolo può essere utilizzata in altri campi applicativi? La risposta è si e l’obiettivo di questa tesi è proprio quello di constatare allo stato attuale, in che modo e con quale efficienza pùo un software generico, avvalersi dell’utilizzo della GPU invece della CPU.
Resumo:
In questa tesi abbiamo studiato la quantizzazione di una teoria di gauge di forme differenziali su spazi complessi dotati di una metrica di Kaehler. La particolarità di queste teorie risiede nel fatto che esse presentano invarianze di gauge riducibili, in altre parole non indipendenti tra loro. L'invarianza sotto trasformazioni di gauge rappresenta uno dei pilastri della moderna comprensione del mondo fisico. La caratteristica principale di tali teorie è che non tutte le variabili sono effettivamente presenti nella dinamica e alcune risultano essere ausiliarie. Il motivo per cui si preferisce adottare questo punto di vista è spesso il fatto che tali teorie risultano essere manifestamente covarianti sotto importanti gruppi di simmetria come il gruppo di Lorentz. Uno dei metodi più usati nella quantizzazione delle teorie di campo con simmetrie di gauge, richiede l'introduzione di campi non fisici detti ghosts e di una simmetria globale e fermionica che sostituisce l'iniziale invarianza locale di gauge, la simmetria BRST. Nella presente tesi abbiamo scelto di utilizzare uno dei più moderni formalismi per il trattamento delle teorie di gauge: il formalismo BRST Lagrangiano di Batalin-Vilkovisky. Questo metodo prevede l'introduzione di ghosts per ogni grado di riducibilità delle trasformazioni di gauge e di opportuni “antifields" associati a ogni campo precedentemente introdotto. Questo formalismo ci ha permesso di arrivare direttamente a una completa formulazione in termini di path integral della teoria quantistica delle (p,0)-forme. In particolare esso permette di dedurre correttamente la struttura dei ghost della teoria e la simmetria BRST associata. Per ottenere questa struttura è richiesta necessariamente una procedura di gauge fixing per eliminare completamente l'invarianza sotto trasformazioni di gauge. Tale procedura prevede l'eliminazione degli antifields in favore dei campi originali e dei ghosts e permette di implementare, direttamente nel path integral condizioni di gauge fixing covarianti necessari per definire correttamente i propagatori della teoria. Nell'ultima parte abbiamo presentato un’espansione dell’azione efficace (euclidea) che permette di studiare le divergenze della teoria. In particolare abbiamo calcolato i primi coefficienti di tale espansione (coefficienti di Seeley-DeWitt) tramite la tecnica dell'heat kernel. Questo calcolo ha tenuto conto dell'eventuale accoppiamento a una metrica di background cosi come di un possibile ulteriore accoppiamento alla traccia della connessione associata alla metrica.
Resumo:
L’Exploratory Search, paradigma di ricerca basato sulle attività di scoperta e d’apprendimento, è stato per diverso tempo ignorato dai motori di ricerca tradizionali. Invece, è spesso dalle ricerche esplorative che nascono le idee più innovative. Le recenti tecnologie del Semantic Web forniscono le soluzioni che permettono d’implementare dei motori di ricerca capaci di accompagnare gli utenti impegnati in tale tipo di ricerca. Aemoo, motore di ricerca sul quale s’appoggia questa tesi ne è un esempio efficace. A partire da quest’ultimo e sempre con l’aiuto delle tecnologie del Web of Data, questo lavoro si propone di fornire una metodologia che permette di prendere in considerazione la singolarità del profilo di ciascun utente al fine di guidarlo nella sua ricerca esplorativa in modo personalizzato. Il criterio di personalizzazione che abbiamo scelto è comportamentale, ovvero basato sulle decisioni che l’utente prende ad ogni tappa che ritma il processo di ricerca. Implementando un prototipo, abbiamo potuto testare la validità di quest’approccio permettendo quindi all’utente di non essere più solo nel lungo e tortuoso cammino che porta alla conoscenza.
Resumo:
Life Cycle Assessment (LCA) is a chain-oriented tool to evaluate the environment performance of products focussing on the entire life cycle of these products: from the extraction of resources, via manufacturing and use, to the final processing of the disposed products. Through all these stages consumption of resources and pollutant releases to air, water, soil are identified and quantified in Life Cycle Inventory (LCI) analysis. Subsequently to the LCI phase follows the Life Cycle Impact Assessment (LCIA) phase; that has the purpose to convert resource consumptions and pollutant releases in environmental impacts. The LCIA aims to model and to evaluate environmental issues, called impact categories. Several reports emphasises the importance of LCA in the field of ENMs. The ENMs offer enormous potential for the development of new products and application. There are however unanswered questions about the impacts of ENMs on human health and the environment. In the last decade the increasing production, use and consumption of nanoproducts, with a consequent release into the environment, has accentuated the obligation to ensure that potential risks are adequately understood to protect both human health and environment. Due to its holistic and comprehensive assessment, LCA is an essential tool evaluate, understand and manage the environmental and health effects of nanotechnology. The evaluation of health and environmental impacts of nanotechnologies, throughout the whole of their life-cycle by using LCA methodology. This is due to the lack of knowledge in relation to risk assessment. In fact, to date, the knowledge on human and environmental exposure to nanomaterials, such ENPs is limited. This bottleneck is reflected into LCA where characterisation models and consequently characterisation factors for ENPs are missed. The PhD project aims to assess limitations and challenges of the freshwater aquatic ecotoxicity potential evaluation in LCIA phase for ENPs and in particular nanoparticles as n-TiO2.
Resumo:
Il seguente elaborato si concentra sull'identifi�cazione strutturale di sistemi soggetti a sollecitazioni aeroelastiche e nello speci�fico l'attenzione viene rivolta ad impalcati da ponte. Si analizzano i concetti principali caratterizzanti il campo dell'aeroelasticità indagando i fattori dominanti che entrano in gioco sul piano teorico. In seguito, si considera il metodo di identifi�cazione strutturale chiamato Covariance Block Hankel Matrix (CBHM) utilizzato come strumento di derivazione dei coeffi�cienti aeroelastici propri della struttura. Infi�ne, si indaga il comportamento di questo metodo di identi�ficazione al variare di una serie di parametri chiave e all'interno di diversi scenari, visionando risultati ottenuti tramite una serie di test eff�ettuati per provare l'a�dattabilità del metodo stesso al variare delle condizioni che caratterizzano il sistema.
Resumo:
Lo scopo della tesi è esplorare il nuovo dualismo tra calcolo situato e calcolo come mero servizio immateriale che si osserva nel rafforzarsi di due paradigmi apparentemente antitetici come Cloud Computing e Pervasive Computing. Si vuole quindi dimostrare che i due paradigmi sono complementari, e possibilmente sviluppare un modello e un approccio metodologico per sistemi distribuiti che sfrutti opportunamente le caratteristiche dei due paradigmi. A tale scopo si utilizzerà come caso di studio il modello TuCSoN con linguaggio ReSpecT, combinando opportunamente Situated ReSpecT con il modello Coordination as a Service (CaaS) espresso da TuCSoN on Cloud.
Resumo:
The present dissertation focuses on the dual number in Ancient Greek in a diachronical lapse stretching from the Mycenaean age to the Attic Drama and Comedy of the 5th century BC. In the first chapter morphological issues are addressed, chiefly in a comparative perspective. The Indo European evidence on the dual is hence gathered in order to sketch patterns of grammaticalisation and paradigmatisation of specific grams, growing increasingly functional within the Greek domain. In the second chapter syntactical problems are tackled. After a survey of scholarly literature on the Greek dual, we engage in a functional and typological approach, in order to disentangle some biased assessments on the dual, namely its alleged lack of regularity and intermittent agreement. Some recent frameworks in General Linguistics provide useful grounds for casting new light on the subject. Internal Reconstruction, for instance, supports the facultativity of the dual in each and every stage of its development; Typology and the Animacy Hierarcy add precious cross linguistical insight on the behaviour of the dual toward agreement. Glaring differences also arise as to the adoption — or avoidance — of the dual by different authors. Idiolectal varieties prove in fact conditioned by stylistical and register necessity. By means of a comparison among Epics, Tragedy and Comedy it is possible to enhance differences in the evaluation of the dual, which led sometimes to forms of ‘censure’ — thus triggering the onset of competing strategies to express duality. The last two chapters delve into the tantalising variety of the Homeric evidence, first of all in an account of the notorious issue of the Embassy of Iliad IX, and last in a commentary of all significant Homeric duals — mostly represented by archaisms, formulae, and ad hoc coinages.
Resumo:
L’idea da cui nasce questa tesi è quella di introdurre in Blender un Add-on in linguaggio Python che permetta di applicare alcune deformazioni di tipo surface-based a mesh poligonali. Questa tipologia di deformazioni rappresentano l’alternativa alle deformazioni di mesh poligonali tramite rigging ( cioè l’aggiunta di uno scheletro per controllare e per animare la mesh) e caging (cioè l’utilizzo di una struttura di controllo di tipo reticolare che propaga la sua deformazione su un oggetto in essa immerso), che di solito sono le prescelte in computer animation e in modellazione. Entrambe le deformazioni indicate sono già estremamente radicate in Blender, prova ne è il fatto che esiste più di un modificatore che le implementa, già integrato in codice nativo. Si introduce inizialmente la tecnica di deformazione di mesh poligonali tramite elasticità discreta, che è stata realizzata, quindi, presenteremo diverse metodologie di deformazione. Illustreremo poi come modellare, creare ed editare delle mesh in Blender. Non ci soffermeremo su dettagli puramente dettati dall’interfaccia utente, cercheremo invece di addentrarci nei concetti e nelle strutture teoriche, allo scopo di avere le basi logiche per definire una Add-on che risulti veramente efficace e utile all’interno del sistema di modellazione. Approfondiremo la struttura di due modificatori chiave per la deformazioni di mesh : Lattice Modifier e Mesh Deform Modifier che implementano una metodologia di tipo space-based. Infine ci concentreremo sulla parte di scripting Python in Blender. Daremo un’idea delle strutture dati, dei metodi e delle funzioni da utilizzare per interagire con l’ambiente circostante, con i singoli oggetti ed in particolare con le Mesh e daremo un esempio di script Python. Andremo infine a descrivere l’implementazione della deformazione elastica mediante add-on Python in Blender.
Resumo:
From several researchers it appears that Italian adolescents and young people are grown up with commercial television which is accused to contain too much violence, sex, reality shows, advertising, cartoons which are watched from 1 to 4 hours daily. Adolescents are also great users of mobile phones and spend a lot of time to use it. Their academic results are below the average of Ocse States. However the widespread use of communication technology and social networks display also another side of adolescents who engage in media activism and political movement such as Ammazzateci tutti!, Indymedia, Movimento 5 Stelle, Movimento No Tav. In which way does the world economic crisis -with the specific problems of Italy as the cutting founds for school, academic research and welfare, the corruption of political class, mafia and camorra organisation induce a reaction in our adolescents and young people? Several researches inform us about their use of internet in terms of spending time but, more important, how internet, and the web 2.0, could be an instrument for their reaction? What do they do online? How they do it? Which is the meaning of their presence online? And, has their online activity a continuity offline? The research aims are: 1. Trough a participant observation of Social Network profiles opened by 10 young active citizens, I would seek to understand which kind of social or political activities they engage in online as individuals and which is the meaning of their presence online. 2. To observe and understand if adolescents and young people have a continuity of their socio-political engagement online in offline activities and which kind of experiences it is. 3. Try to comprehend which was (or which were) the significant, learning experiences that convinced them about the potential of the web as tool for their activism.
Resumo:
Scopo di questo lavoro di tesi è quello di sperimentare “sul campo’’ la validità e l'efficacia di tecniche SBR per il trattamento delle acque domestiche per case sparse e nuclei isolati. Tuttavia quella SBR, pur essendo una tecnica impiantistica, può soddisfare queste esigenze. Grazie alla presenza di un adeguato volume d'accumulo ed al funzionamento ciclico dell'impianto sono annullati tutti i problemi determinati, nei normali impianti in continuo, dalla discontinuità dell'afflusso di reflui (picchi di portata). L'impianto è studiato per ridurre la necessità di manutenzione al minimo: tutte le apparecchiature tecniche sono collocate in un armadio esterno all'impianto ed in vasca ci sono solo le tubazioni. Ciò esclude ogni presenza interna al serbatoio di apparecchiature elettriche e di parti in movimento soggette a usura. Il vantaggio è evidente nella semplificazione delle operazioni di gestione/controllo/manutenzione dell’impianto che non richiedono, di norma, lo svuotamento della cisterna e consentono operazioni più agevoli e sicure.Tutti i movimenti di processo sono supportati da tre sistemi Air Lift azionati da un unico compressore che provvede anche all'immissione dell'ossigeno attraverso l'aeratore tubolare a membrana nella vasca SBR. Il compressore si caratterizza per lunga vita operativa e assoluta silenziosità di funzionamento. Per verificare l’efficacia del processo depurativo indotto dall’impianto SBR installato dalla GreenSolar abbiamo fatto dei prelievi sul liquame in entrata alla camera SBR e su quello in uscita da essa. I campioni così prelevati sono stati analizzati da un laboratorio autorizzato.I valori limite imposti dal DGR n. 1053 sono ampiamente rispettati, tuttavia i risultati ottenuti non sono soddisfacenti relativamente alle potenzialità dell'impianto.
Resumo:
Questa tesi è incentrata sull'analisi dell'arbitraggio statistico, strategia di trading che cerca di trarre profitto dalle fluttuazioni statistiche di prezzo di uno o più asset sulla base del loro valore atteso. In generale, si creano opportunità di arbitraggio statistico quando si riescono ad individuare delle componenti sistematiche nelle dinamiche dei prezzi di alcuni asset che si muovono con regolarità persistenti e prevalenti. Perturbazioni casuali della domanda e dell’offerta nei mercati possono causare divergenze nei prezzi, dando luogo a opportunità di intermarket spread, ossia simultanei acquisto e vendita di commodities correlate tra loro. Vengono approfonditi vari test econometrici, i test unit root utilizzati per verificare se una serie storica possa essere modellizzata con un processo random walk. Infine viene costruita una strategia di trading basata sull'arbitraggio statistico e applicata numericamente alle serie storiche dal 2010 al 2014 di due titoli azionari sul petrolio: Brent e WTI.
Resumo:
This thesis describes the ultra-precise determination of the g-factor of the electron bound to hydrogenlike 28Si13+. The experiment is based on the simultaneous determination of the cyclotron- and Larmor frequency of a single ion, which is stored in a triple Penning-trap setup. The continuous Stern-Gerlach effect is used to couple the spin of the bound electron to the motional frequencies of the ion via a magnetic bottle, which allows the non-destructive determination of the spin state. To this end, a highly sensitive, cryogenic detection system was developed, which allowed the direct, non-destructive detection of the eigenfrequencies with the required precision.rnThe development of a novel, phase sensitive detection technique finally allowed the determination of the g-factor with a relative accuracy of 40 ppt, which was previously inconceivable. The comparison of the hereby determined value with the value predicted by quantumelectrodynamics (QED) allows the verification of the validity of this fundamental theory under the extreme conditions of the strong binding potential of a highly charged ion. The exact agreement of theory and experiment is an impressive demonstration of the exactness of QED. The experimental possibilities created in this work will allow in the near future not only further tests of theory, but also the determination of the mass of the electron with a precision that exceeds the current literature value by more than an order of magnitude.
Resumo:
In dieser Arbeit wurden dünne Schichten von Heusler-Verbindungen hergestellt und auf ihre Transporteigenschaften hin untersucht.rnDer Anomale Hall-Effekt (AHE) ist dabei von besonderem Interesse. Er ist ein seit langer Zeit bekannter, jedoch noch nicht vollständig verstandener Transport-Effekt. Die meisten Veröffentlichungen theoretischer Arbeiten konzentrieren sich auf den Einfluss eines bestimmten Beitrags zum AHE. Tatsächlich gemessene experimentelle Daten können jedoch oft nicht in Einklang mit idealisierten Annahmen gebracht werden. rnDie vorliegende Arbeit diskutiert die Ergebnisse, welche aus Messungen von Materialien mit niedrigem Restwiderstand erhalten wurden. rnrnAls prototypische Materialien wurden hier hyphenation Heusler-Verbindungen untersucht. Als Material mit einer komplexen Topologie der Fermi-Fläche zeichnet sich dort der Einfluss von Defekten und der Unordnung der Kristallstruktur deutlich ab.rnrnDurch Verwendung von Filmen mit unterschiedlichem Grad der Unordnung können verschiedene Streumechanismen unterschieden werden. Für Co$_{2}$FeSi$_{0.6}$Al$_{0.4}$ and Co$_{2}$FeGa$_{0.5}$Ge$_{0.5}$ zeigt sich ein positiver AHE bei einer Unordnung vom Typ B2 und bei einer induzierten temperaturabh"angigen Streuung, wo hingegen eine Typ DO$_{3}$-Unordnung zusammen mit anderen möglichen intrinsischen Beiträgen einen negativen Effekt hervorruft.rnrnDarüber hinaus wurden die magneto-optische Kerr-Effekte (MOKE) dieser Verbindungen untersucht. Hierfür wurden Beiträge erster Ordnung als Funktion der intrinsischen und extrinsischen Parameter qualitativ analysiert. Auf den Einfluss der kristallinen Ordnung auf Beiträge zweiter Ordnung des MOKE-Signals wird ebenfalls eingegangen.rnrnDes Weiteren wurden dünne Schichten der Heusler-Verbindung Co$_{2}$MnAl auf MgO- und Si-Subs-traten (beide (100)) mit Hochfrequenz-Mag-netron-Sputtern erzeugt. Die zusammensetzung sowie die magnetischen und Transport-Eigenschaften wurden hinsichtlich unterschiedlicher Abscheidebedingungen systematisch untersucht.rnrnInsbesondere zeigt der AHE-Widerstand ein außerordentliches temperaturunabhängiges Verhalten in einem Bereich moderater Magnetfeldstärken von 0 bis 0.6,T. Hierf"ur wurde der nicht-diagonale Transport bei Temperaturen bis zu 300,$^{circ}$C analysiert. Die Daten zeigen die Eignung des Materials für Hall-Sensoren auch oberhalb der Raumtemperatur.rnrnJüngst wurde der Spin Seebeck-Effekt (SSE) entdeckt. Der Effekt aus dem Bereich der Spin-Kaloritronik erzeugt eine Spin-Spannung'' aufgrund eines Temperaturgradienten in magnetischen Materialien. Hier werden vorläufige Messungen des SSE in Ni$_{80}$Fe$_{20}$ und in Heusler-Verbindungen präsentiert.rn
Resumo:
The thesis aims to expose the advances achieved in the practices of captive breeding of the European eel (Anguilla anguilla). Aspects investigated concern both approaches livestock (breeding selection, response to hormonal stimulation, reproductive performance, incubation of eggs) and physiological aspects (endocrine plasma profiles of players), as well as engineering aspects. Studies conducted on various populations of wild eel have shown that the main determining factor in the selection of wild females destined to captive breeding must be the Silver Index which may determine the stage of pubertal development. The hormonal induction protocol adopted, with increasing doses of carp pituitary extract, it has proven useful to ovarian development, with a synchronization effect that is positively reflected on egg production. The studies on the effects of photoperiod show how the condition of total darkness can positively influence practices of reproductions in captivity. The effects of photoperiod were also investigated at the physiological level, observing the plasma levels of steroids ( E2, T) and thyroid hormones (T3 and T4) and the expression in the liver of vitellogenin (vtg1 and vtg2) and estradiol membrane receptor (ESR1). From the comparison between spontaneous deposition and insemination techniques through the stripping is inferred as the first ports to a better qualitative and quantitative yield in the production of eggs capable of being fertilized, also the presence of a percentage of oocytes completely transparent can be used to obtain eggs at a good rate of fertility. Finally, the design and implementation of a system for recirculating aquaculture suited to meet the needs of species-specific eel showed how to improve the reproductive results, it would be preferable to adopt low-flow and low density incubation.