28 resultados para Metriche del software Stima del software Software embedded Function point Lines of code

em AMS Tesi di Dottorato - Alm@DL - Università di Bologna


Relevância:

100.00% 100.00%

Publicador:

Resumo:

The thesis describes the implementation of a calibration, format-translation and data conditioning software for radiometric tracking data of deep-space spacecraft. All of the available propagation-media noise rejection techniques available as features in the code are covered in their mathematical formulations, performance and software implementations. Some techniques are retrieved from literature and current state of the art, while other algorithms have been conceived ex novo. All of the three typical deep-space refractive environments (solar plasma, ionosphere, troposphere) are dealt with by employing specific subroutines. Specific attention has been reserved to the GNSS-based tropospheric path delay calibration subroutine, since it is the most bulky module of the software suite, in terms of both the sheer number of lines of code, and development time. The software is currently in its final stage of development and once completed will serve as a pre-processing stage for orbit determination codes. Calibration of transmission-media noise sources in radiometric observables proved to be an essential operation to be performed of radiometric data in order to meet the more and more demanding error budget requirements of modern deep-space missions. A completely autonomous and all-around propagation-media calibration software is a novelty in orbit determination, although standalone codes are currently employed by ESA and NASA. The described S/W is planned to be compatible with the current standards for tropospheric noise calibration used by both these agencies like the AMC, TSAC and ESA IFMS weather data, and it natively works with the Tracking Data Message file format (TDM) adopted by CCSDS as standard aimed to promote and simplify inter-agency collaboration.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Today the design of hydraulic and lubrication circuits is becoming more and more important. The aim of this study is to develop a methodology for the design of the lubrication circuit of an agricultural tractor. In this paper the lubrication circuit of a continuously variable transmission is analysed. Several lines of the circuit are considered and in particular the lubrication of gears is discussed. The worst possible working condition which corresponds to the highest power dissipation for each part of the transmission is determined. The model of the lubrication circuit is developed with two different software simulations (Automation Studio & Amesim). In order to check the reliability of the simulation models and to characterise the lubrication circuit, experimental tests are performed. The comparison between the values of pressure drops obtained by the models and by the experimental test, demonstrates that it is possible to use these programs for the set up of a simple model of the lubrication circuit. The calculation of oil flows necessary for a force-fed lubrication of the gears, the simulation of the circuit by commercial software, and the validation of the circuit design allow to set up a preliminary equilibrium among the pipes and a proper flow rate distribution. Optimising the circuit design in the initial phase of the project is very important. The experimental adjustment of the circuit, which is often difficult, can be simplified; time and cost production can be reduced.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il primo studio ha verificato l'affidabilità del software Polimedicus e gli effetti indotti d'allenamento arobico all’intensità del FatMax. 16 soggetti sovrappeso, di circa 40-55anni, sono stati arruolati e sottoposti a un test incrementale fino a raggiungere un RER di 0,95, e da quel momento il carico è stato aumentato di 1 km/ h ogni minuto fino a esaurimento. Successivamente, è stato verificato se i valori estrapolati dal programma erano quelli che si possono verificare durante a un test a carico costante di 1ora. I soggetti dopo 8 settimane di allenamento hanno fatto un altro test incrementale. Il dati hanno mostrato che Polimedicus non è molto affidabile, soprattutto l'HR. Nel secondo studio è stato sviluppato un nuovo programma, Inca, ed i risultati sono stati confrontati con i dati ottenuti dal primo studio con Polimedicus. I risultati finali hanno mostrato che Inca è più affidabile. Nel terzo studio, abbiamo voluto verificare l'esattezza del calcolo del FatMax con Inca e il test FATmaxwork. 25 soggetti in sovrappeso, tra 40-55 anni, sono stati arruolati e sottoposti al FATmaxwork test. Successivamente, è stato verificato se i valori estrapolati da INCA erano quelli che possono verificarsi durante un carico di prova costante di un'ora. L'analisi ha mostrato una precisione del calcolo della FatMax durante il carico di lavoro. Conclusione: E’ emersa una certa difficoltà nel determinare questo parametro, sia per la variabilità inter-individuale che intra-individuale. In futuro bisognerà migliorare INCA per ottenere protocolli di allenamento ancora più validi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Modern embedded systems embrace many-core shared-memory designs. Due to constrained power and area budgets, most of them feature software-managed scratchpad memories instead of data caches to increase the data locality. It is therefore programmers’ responsibility to explicitly manage the memory transfers, and this make programming these platform cumbersome. Moreover, complex modern applications must be adequately parallelized before they can the parallel potential of the platform into actual performance. To support this, programming languages were proposed, which work at a high level of abstraction, and rely on a runtime whose cost hinders performance, especially in embedded systems, where resources and power budget are constrained. This dissertation explores the applicability of the shared-memory paradigm on modern many-core systems, focusing on the ease-of-programming. It focuses on OpenMP, the de-facto standard for shared memory programming. In a first part, the cost of algorithms for synchronization and data partitioning are analyzed, and they are adapted to modern embedded many-cores. Then, the original design of an OpenMP runtime library is presented, which supports complex forms of parallelism such as multi-level and irregular parallelism. In the second part of the thesis, the focus is on heterogeneous systems, where hardware accelerators are coupled to (many-)cores to implement key functional kernels with orders-of-magnitude of speedup and energy efficiency compared to the “pure software” version. However, three main issues rise, namely i) platform design complexity, ii) architectural scalability and iii) programmability. To tackle them, a template for a generic hardware processing unit (HWPU) is proposed, which share the memory banks with cores, and the template for a scalable architecture is shown, which integrates them through the shared-memory system. Then, a full software stack and toolchain are developed to support platform design and to let programmers exploiting the accelerators of the platform. The OpenMP frontend is extended to interact with it.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The industrial context is changing rapidly due to advancements in technology fueled by the Internet and Information Technology. The fourth industrial revolution counts integration, flexibility, and optimization as its fundamental pillars, and, in this context, Human-Robot Collaboration has become a crucial factor for manufacturing sustainability in Europe. Collaborative robots are appealing to many companies due to their low installation and running costs and high degree of flexibility, making them ideal for reshoring production facilities with a short return on investment. The ROSSINI European project aims to implement a true Human-Robot Collaboration by designing, developing, and demonstrating a modular and scalable platform for integrating human-centred robotic technologies in industrial production environments. The project focuses on safety concerns related to introducing a cobot in a shared working area and aims to lay the groundwork for a new working paradigm at the industrial level. The need for a software architecture suitable to the robotic platform employed in one of three use cases selected to deploy and test the new technology was the main trigger of this Thesis. The chosen application consists of the automatic loading and unloading of raw-material reels to an automatic packaging machine through an Autonomous Mobile Robot composed of an Autonomous Guided Vehicle, two collaborative manipulators, and an eye-on-hand vision system for performing tasks in a partially unstructured environment. The results obtained during the ROSSINI use case development were later used in the SENECA project, which addresses the need for robot-driven automatic cleaning of pharmaceutical bins in a very specific industrial context. The inherent versatility of mobile collaborative robots is evident from their deployment in the two projects with few hardware and software adjustments. The positive impact of Human-Robot Collaboration on diverse production lines is a motivation for future investments in research on this increasingly popular field by the industry.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Se il lavoro dello storico è capire il passato come è stato compreso dalla gente che lo ha vissuto, allora forse non è azzardato pensare che sia anche necessario comunicare i risultati delle ricerche con strumenti propri che appartengono a un'epoca e che influenzano la mentalità di chi in quell'epoca vive. Emergenti tecnologie, specialmente nell’area della multimedialità come la realtà virtuale, permettono agli storici di comunicare l’esperienza del passato in più sensi. In che modo la storia collabora con le tecnologie informatiche soffermandosi sulla possibilità di fare ricostruzioni storiche virtuali, con relativi esempi e recensioni? Quello che maggiormente preoccupa gli storici è se una ricostruzione di un fatto passato vissuto attraverso la sua ricreazione in pixels sia un metodo di conoscenza della storia che possa essere considerato valido. Ovvero l'emozione che la navigazione in una realtà 3D può suscitare, è un mezzo in grado di trasmettere conoscenza? O forse l'idea che abbiamo del passato e del suo studio viene sottilmente cambiato nel momento in cui lo si divulga attraverso la grafica 3D? Da tempo però la disciplina ha cominciato a fare i conti con questa situazione, costretta soprattutto dall'invasività di questo tipo di media, dalla spettacolarizzazione del passato e da una divulgazione del passato parziale e antiscientifica. In un mondo post letterario bisogna cominciare a pensare che la cultura visuale nella quale siamo immersi sta cambiando il nostro rapporto con il passato: non per questo le conoscenze maturate fino ad oggi sono false, ma è necessario riconoscere che esiste più di una verità storica, a volte scritta a volte visuale. Il computer è diventato una piattaforma onnipresente per la rappresentazione e diffusione dell’informazione. I metodi di interazione e rappresentazione stanno evolvendo di continuo. Ed è su questi due binari che è si muove l’offerta delle tecnologie informatiche al servizio della storia. Lo scopo di questa tesi è proprio quello di esplorare, attraverso l’utilizzo e la sperimentazione di diversi strumenti e tecnologie informatiche, come si può raccontare efficacemente il passato attraverso oggetti tridimensionali e gli ambienti virtuali, e come, nel loro essere elementi caratterizzanti di comunicazione, in che modo possono collaborare, in questo caso particolare, con la disciplina storica. La presente ricerca ricostruisce alcune linee di storia delle principali fabbriche attive a Torino durante la seconda guerra mondiale, ricordando stretta relazione che esiste tra strutture ed individui e in questa città in particolare tra fabbrica e movimento operaio, è inevitabile addentrarsi nelle vicende del movimento operaio torinese che nel periodo della lotta di Liberazione in città fu un soggetto politico e sociale di primo rilievo. Nella città, intesa come entità biologica coinvolta nella guerra, la fabbrica (o le fabbriche) diventa il nucleo concettuale attraverso il quale leggere la città: sono le fabbriche gli obiettivi principali dei bombardamenti ed è nelle fabbriche che si combatte una guerra di liberazione tra classe operaia e autorità, di fabbrica e cittadine. La fabbrica diventa il luogo di "usurpazione del potere" di cui parla Weber, il palcoscenico in cui si tengono i diversi episodi della guerra: scioperi, deportazioni, occupazioni .... Il modello della città qui rappresentata non è una semplice visualizzazione ma un sistema informativo dove la realtà modellata è rappresentata da oggetti, che fanno da teatro allo svolgimento di avvenimenti con una precisa collocazione cronologica, al cui interno è possibile effettuare operazioni di selezione di render statici (immagini), di filmati precalcolati (animazioni) e di scenari navigabili interattivamente oltre ad attività di ricerca di fonti bibliografiche e commenti di studiosi segnatamente legati all'evento in oggetto. Obiettivo di questo lavoro è far interagire, attraverso diversi progetti, le discipline storiche e l’informatica, nelle diverse opportunità tecnologiche che questa presenta. Le possibilità di ricostruzione offerte dal 3D vengono così messe a servizio della ricerca, offrendo una visione integrale in grado di avvicinarci alla realtà dell’epoca presa in considerazione e convogliando in un’unica piattaforma espositiva tutti i risultati. Divulgazione Progetto Mappa Informativa Multimediale Torino 1945 Sul piano pratico il progetto prevede una interfaccia navigabile (tecnologia Flash) che rappresenti la pianta della città dell’epoca, attraverso la quale sia possibile avere una visione dei luoghi e dei tempi in cui la Liberazione prese forma, sia a livello concettuale, sia a livello pratico. Questo intreccio di coordinate nello spazio e nel tempo non solo migliora la comprensione dei fenomeni, ma crea un maggiore interesse sull’argomento attraverso l’utilizzo di strumenti divulgativi di grande efficacia (e appeal) senza perdere di vista la necessità di valicare le tesi storiche proponendosi come piattaforma didattica. Un tale contesto richiede uno studio approfondito degli eventi storici al fine di ricostruire con chiarezza una mappa della città che sia precisa sia topograficamente sia a livello di navigazione multimediale. La preparazione della cartina deve seguire gli standard del momento, perciò le soluzioni informatiche utilizzate sono quelle fornite da Adobe Illustrator per la realizzazione della topografia, e da Macromedia Flash per la creazione di un’interfaccia di navigazione. La base dei dati descrittivi è ovviamente consultabile essendo contenuta nel supporto media e totalmente annotata nella bibliografia. È il continuo evolvere delle tecnologie d'informazione e la massiccia diffusione dell’uso dei computer che ci porta a un cambiamento sostanziale nello studio e nell’apprendimento storico; le strutture accademiche e gli operatori economici hanno fatto propria la richiesta che giunge dall'utenza (insegnanti, studenti, operatori dei Beni Culturali) di una maggiore diffusione della conoscenza storica attraverso la sua rappresentazione informatizzata. Sul fronte didattico la ricostruzione di una realtà storica attraverso strumenti informatici consente anche ai non-storici di toccare con mano quelle che sono le problematiche della ricerca quali fonti mancanti, buchi della cronologia e valutazione della veridicità dei fatti attraverso prove. Le tecnologie informatiche permettono una visione completa, unitaria ed esauriente del passato, convogliando tutte le informazioni su un'unica piattaforma, permettendo anche a chi non è specializzato di comprendere immediatamente di cosa si parla. Il miglior libro di storia, per sua natura, non può farlo in quanto divide e organizza le notizie in modo diverso. In questo modo agli studenti viene data l'opportunità di apprendere tramite una rappresentazione diversa rispetto a quelle a cui sono abituati. La premessa centrale del progetto è che i risultati nell'apprendimento degli studenti possono essere migliorati se un concetto o un contenuto viene comunicato attraverso più canali di espressione, nel nostro caso attraverso un testo, immagini e un oggetto multimediale. Didattica La Conceria Fiorio è uno dei luoghi-simbolo della Resistenza torinese. Il progetto è una ricostruzione in realtà virtuale della Conceria Fiorio di Torino. La ricostruzione serve a arricchire la cultura storica sia a chi la produce, attraverso una ricerca accurata delle fonti, sia a chi può poi usufruirne, soprattutto i giovani, che, attratti dall’aspetto ludico della ricostruzione, apprendono con più facilità. La costruzione di un manufatto in 3D fornisce agli studenti le basi per riconoscere ed esprimere la giusta relazione fra il modello e l’oggetto storico. Le fasi di lavoro attraverso cui si è giunti alla ricostruzione in 3D della Conceria: . una ricerca storica approfondita, basata sulle fonti, che possono essere documenti degli archivi o scavi archeologici, fonti iconografiche, cartografiche, ecc.; . La modellazione degli edifici sulla base delle ricerche storiche, per fornire la struttura geometrica poligonale che permetta la navigazione tridimensionale; . La realizzazione, attraverso gli strumenti della computer graphic della navigazione in 3D. Unreal Technology è il nome dato al motore grafico utilizzato in numerosi videogiochi commerciali. Una delle caratteristiche fondamentali di tale prodotto è quella di avere uno strumento chiamato Unreal editor con cui è possibile costruire mondi virtuali, e che è quello utilizzato per questo progetto. UnrealEd (Ued) è il software per creare livelli per Unreal e i giochi basati sul motore di Unreal. E’ stata utilizzata la versione gratuita dell’editor. Il risultato finale del progetto è un ambiente virtuale navigabile raffigurante una ricostruzione accurata della Conceria Fiorio ai tempi della Resistenza. L’utente può visitare l’edificio e visualizzare informazioni specifiche su alcuni punti di interesse. La navigazione viene effettuata in prima persona, un processo di “spettacolarizzazione” degli ambienti visitati attraverso un arredamento consono permette all'utente una maggiore immersività rendendo l’ambiente più credibile e immediatamente codificabile. L’architettura Unreal Technology ha permesso di ottenere un buon risultato in un tempo brevissimo, senza che fossero necessari interventi di programmazione. Questo motore è, quindi, particolarmente adatto alla realizzazione rapida di prototipi di una discreta qualità, La presenza di un certo numero di bug lo rende, però, in parte inaffidabile. Utilizzare un editor da videogame per questa ricostruzione auspica la possibilità di un suo impiego nella didattica, quello che le simulazioni in 3D permettono nel caso specifico è di permettere agli studenti di sperimentare il lavoro della ricostruzione storica, con tutti i problemi che lo storico deve affrontare nel ricreare il passato. Questo lavoro vuole essere per gli storici una esperienza nella direzione della creazione di un repertorio espressivo più ampio, che includa gli ambienti tridimensionali. Il rischio di impiegare del tempo per imparare come funziona questa tecnologia per generare spazi virtuali rende scettici quanti si impegnano nell'insegnamento, ma le esperienze di progetti sviluppati, soprattutto all’estero, servono a capire che sono un buon investimento. Il fatto che una software house, che crea un videogame di grande successo di pubblico, includa nel suo prodotto, una serie di strumenti che consentano all'utente la creazione di mondi propri in cui giocare, è sintomatico che l'alfabetizzazione informatica degli utenti medi sta crescendo sempre più rapidamente e che l'utilizzo di un editor come Unreal Engine sarà in futuro una attività alla portata di un pubblico sempre più vasto. Questo ci mette nelle condizioni di progettare moduli di insegnamento più immersivi, in cui l'esperienza della ricerca e della ricostruzione del passato si intreccino con lo studio più tradizionale degli avvenimenti di una certa epoca. I mondi virtuali interattivi vengono spesso definiti come la forma culturale chiave del XXI secolo, come il cinema lo è stato per il XX. Lo scopo di questo lavoro è stato quello di suggerire che vi sono grosse opportunità per gli storici impiegando gli oggetti e le ambientazioni in 3D, e che essi devono coglierle. Si consideri il fatto che l’estetica abbia un effetto sull’epistemologia. O almeno sulla forma che i risultati delle ricerche storiche assumono nel momento in cui devono essere diffuse. Un’analisi storica fatta in maniera superficiale o con presupposti errati può comunque essere diffusa e avere credito in numerosi ambienti se diffusa con mezzi accattivanti e moderni. Ecco perchè non conviene seppellire un buon lavoro in qualche biblioteca, in attesa che qualcuno lo scopra. Ecco perchè gli storici non devono ignorare il 3D. La nostra capacità, come studiosi e studenti, di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio che il 3D porta con sè, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Una ricostruzione storica può essere molto utile dal punto di vista educativo non sono da chi la visita ma, anche da chi la realizza. La fase di ricerca necessaria per la ricostruzione non può fare altro che aumentare il background culturale dello sviluppatore. Conclusioni La cosa più importante è stata la possibilità di fare esperienze nell’uso di mezzi di comunicazione di questo genere per raccontare e far conoscere il passato. Rovesciando il paradigma conoscitivo che avevo appreso negli studi umanistici, ho cercato di desumere quelle che potremo chiamare “leggi universali” dai dati oggettivi emersi da questi esperimenti. Da punto di vista epistemologico l’informatica, con la sua capacità di gestire masse impressionanti di dati, dà agli studiosi la possibilità di formulare delle ipotesi e poi accertarle o smentirle tramite ricostruzioni e simulazioni. Il mio lavoro è andato in questa direzione, cercando conoscere e usare strumenti attuali che nel futuro avranno sempre maggiore presenza nella comunicazione (anche scientifica) e che sono i mezzi di comunicazione d’eccellenza per determinate fasce d’età (adolescenti). Volendo spingere all’estremo i termini possiamo dire che la sfida che oggi la cultura visuale pone ai metodi tradizionali del fare storia è la stessa che Erodoto e Tucidide contrapposero ai narratori di miti e leggende. Prima di Erodoto esisteva il mito, che era un mezzo perfettamente adeguato per raccontare e dare significato al passato di una tribù o di una città. In un mondo post letterario la nostra conoscenza del passato sta sottilmente mutando nel momento in cui lo vediamo rappresentato da pixel o quando le informazioni scaturiscono non da sole, ma grazie all’interattività con il mezzo. La nostra capacità come studiosi e studenti di percepire idee ed orientamenti importanti dipende spesso dai metodi che impieghiamo per rappresentare i dati e l’evidenza. Perché gli storici possano ottenere il beneficio sottinteso al 3D, tuttavia, devono sviluppare un’agenda di ricerca volta ad accertarsi che il 3D sostenga i loro obiettivi di ricercatori e insegnanti. Le esperienze raccolte nelle pagine precedenti ci portano a pensare che in un futuro non troppo lontano uno strumento come il computer sarà l’unico mezzo attraverso cui trasmettere conoscenze, e dal punto di vista didattico la sua interattività consente coinvolgimento negli studenti come nessun altro mezzo di comunicazione moderno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

I moderni motori a combustione interna diventano sempre più complessi L'introduzione della normativa antinquinamento EURO VI richiederà una significativa riduzione degli inquinanti allo scarico. La maggiore criticità è rappresentata dalla riduzione degli NOx per i motori Diesel da aggiungersi a quelle già in vigore con le precedenti normative. Tipicamente la messa a punto di una nuova motorizzazione prevede una serie di test specifici al banco prova. Il numero sempre maggiore di parametri di controllo della combustione, sorti come conseguenza della maggior complessità meccanica del motore stesso, causa un aumento esponenziale delle prove da eseguire per caratterizzare l'intero sistema. L'obiettivo di questo progetto di dottorato è quello di realizzare un sistema di analisi della combustione in tempo reale in cui siano implementati diversi algoritmi non ancora presenti nelle centraline moderne. Tutto questo facendo particolare attenzione alla scelta dell'hardware su cui implementare gli algoritmi di analisi. Creando una piattaforma di Rapid Control Prototyping (RCP) che sfrutti la maggior parte dei sensori presenti in vettura di serie; che sia in grado di abbreviare i tempi e i costi della sperimentazione sui motopropulsori, riducendo la necessità di effettuare analisi a posteriori, su dati precedentemente acquisiti, a fronte di una maggior quantità di calcoli effettuati in tempo reale. La soluzione proposta garantisce l'aggiornabilità, la possibilità di mantenere al massimo livello tecnologico la piattaforma di calcolo, allontanandone l'obsolescenza e i costi di sostituzione. Questa proprietà si traduce nella necessità di mantenere la compatibilità tra hardware e software di generazioni differenti, rendendo possibile la sostituzione di quei componenti che limitano le prestazioni senza riprogettare il software.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

The availability of a huge amount of source code from code archives and open-source projects opens up the possibility to merge machine learning, programming languages, and software engineering research fields. This area is often referred to as Big Code where programming languages are treated instead of natural languages while different features and patterns of code can be exploited to perform many useful tasks and build supportive tools. Among all the possible applications which can be developed within the area of Big Code, the work presented in this research thesis mainly focuses on two particular tasks: the Programming Language Identification (PLI) and the Software Defect Prediction (SDP) for source codes. Programming language identification is commonly needed in program comprehension and it is usually performed directly by developers. However, when it comes at big scales, such as in widely used archives (GitHub, Software Heritage), automation of this task is desirable. To accomplish this aim, the problem is analyzed from different points of view (text and image-based learning approaches) and different models are created paying particular attention to their scalability. Software defect prediction is a fundamental step in software development for improving quality and assuring the reliability of software products. In the past, defects were searched by manual inspection or using automatic static and dynamic analyzers. Now, the automation of this task can be tackled using learning approaches that can speed up and improve related procedures. Here, two models have been built and analyzed to detect some of the commonest bugs and errors at different code granularity levels (file and method levels). Exploited data and models’ architectures are analyzed and described in detail. Quantitative and qualitative results are reported for both PLI and SDP tasks while differences and similarities concerning other related works are discussed.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi è un contributo al dibattito meta-terminologico sull'uso scientifico del termine "monoteismo" in relazione alla religione dell'Israele antico. L'attenzione è rivolta principalmente a un tema specifico: l'esplorazione della nozione teistica di "esistenza" divina (implicita nell'uso di "monoteismo" come lente di osservazione) e il problema della sua applicazione alle concettualizzazioni della divinità che emergono nella Bibbia ebraica. In primo luogo, il "monoteismo" come termine e concetto viene ricondotto alle sue origini storiche nell'ambiente intellettuale del platonismo di Cambridge nell'Inghilterra del XVII secolo. Poi, si affronta il dibattito contemporaneo sull'uso del termine "monoteismo" in relazione alla religione dell'Israele antico e si evidenzia il ruolo dell'"esistenza" teistica come lente distorcente nella lettura dei testi biblici. La maggior parte della tesi sostiene questo assunto con una lettura esegetica dettagliata di tre passi biblici scelti come casi di studio: Sal 82; 1Re 18,20-40* e Zc 14,9. Queste analisi mostrano come la nozione teistica di un'esistenza divina astratta non sia in grado di spiegare la rappresentazione del divino che emerge da questi testi. Allo stesso tempo, il potere divino come categoria euristica viene proposto come un'alternativa più adatta a spiegare queste concettualizzazioni della divinità. L'ultima sezione elabora ulteriormente questi risultati. Qui la regalità di YHWH, come immagine metaforica del suo potere, viene utilizzata per descrivere i cambiamenti nella concettualizzazione di questa divinità. L'argomentazione finale è che in nessuna parte del materiale biblico affrontato in questa tesi si trova una nozione simile a quella di esistenza divina astratta. Poiché tale nozione è implicita nell'uso del termine "monoteismo", questi risultati richiedono una considerazione ancora più attenta del suo uso nel dibattito scientifico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Introduction: Apoptotic cell death of cardiomyocytes is involved in several cardiovascular diseases including ischemia, hypertrophy and heart failure, thus representing a potential therapeutic target. Apoptosis of cardiac cells can be induced experimentally by several stimuli including hypoxia, serum withdrawal or combination of both. Several lines of research suggest that neurohormonal mechanisms play a central role in the progression of heart failure. In particular, excessive activation of the sympathetic nervous system or the renin-angiotensin-aldosterone system is known to have deleterious effects on the heart. Recent studies report that norepinephrine (NE), the primary transmitter of sympathetic nervous system, and aldosterone (ALD), which is actively produced in failing human heart, are able to induce apoptosis of rat cardiomyocytes. Polyamines are biogenic amines involved in many cellular processes, including apoptosis. Actually it appears that these molecules can act as promoting, modulating or protective agents in apoptosis depending on apoptotic stimulus and cellular model. We have studied the involvement of polyamines in the apoptosis of cardiac cells induced in a model of simulated ischemia and following treatment with NE or ALD. Methods: H9c2 cardiomyoblasts were exposed to a condition of simulated ischemia, consisting of hypoxia plus serum deprivation. Cardiomyocyte cultures were prepared from 1-3 day-old neonatal Wistar rat hearts. Polyamine depletion was obtained by culturing the cells in the presence of α-difluoromethylornithine (DFMO). Polyamines were separated and quantified in acidic cellular extracts by HPLC after derivatization with dansyl chloride. Caspase activity was measured by the cleavage of the fluorogenic peptide substrate. Ornithine decarboxylase (ODC) activity was measured by estimation of the release of 14C-CO2 from 14C-ornithine. DNA fragmentation was visualized by the method of terminal transferase-mediated dUTP nick end-labeling (TUNEL), and DNA laddering on agarose gel electophoresis. Cytochrome c was detected by immunoflorescent staining. Activation of signal transduction pathways was investigated by western blotting. Results: The results indicate that simulated ischemia, NE and ALD cause an early induction of the activity of ornithine decarboxylase (ODC), the first enzyme in polyamine biosynthesis, followed by a later increase of caspase activity, a family of proteases that execute the death program and induce cell death. This effect was prevented in the presence of DFMO, an irreversible inhibitor of ODC, thus suggesting that polyamines are involved in the execution of the death program activated by these stimuli. In H9c2 cells DFMO inhibits several molecular events related to apoptosis that follow simulated ischemia, such as the release of cytochrome c from mitochondria, down-regulation of Bcl-xL, and DNA fragmentation. The anti-apoptotic protein survivin is down-regulated after ALD or NE treatement and polyamine depletion obtained by DFMO partially opposes survivin decrease. Moreover, a study of key signal transduction pathways governing cell death and survival, revealed an involvement of AMP activated protein kinase (AMPK) and AKT kinase, in the modulation by polyamines of the response of cardiomyocytes to NE. In fact polyamine depleted cells show an altered pattern of AMPK and AKT activation that may contrast apoptosis and appears to result from a differential effect on the specific phosphatases that dephosphorylate and switch off these signaling proteins. Conclusions: These results indicate that polyamines are involved in the execution of the death program activated in cardiac cells by heart failure-related stimuli, like ischemia, ALD and NE, and suggest that their apoptosis facilitating action is mediated by a network of specific phosphatases and kinases.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Purpose: Recent knowledge regarding tissue biology highlights a complex regulation of growth factors in reaction to tissue damage. Platelet Rich Plasma (P.R.P.), containing a natural pool of growth factors, can be obtained in a simple and minimally invasive way and be applied to the lesion site. The aim of this study is to explore this novel approach to treat cartilage degenerative lesions of the knee and tendon chronic lesions( patellar tendon, and achilles tendon). In this study we evaluated if the treatment with PRP injections can reduce pain and increase function in cases of patellar tendinosis (Jumper’s Knee), in chronic achilles tendinopathy and in patients with cartilage injuries of the knee. Materials and Methods: 40 patients with cartilage lesion of the knee, 28 male and 12 female with mean age 47 y. (min 18- max 52 years), were treated and prospectively evaluated at a minimum 6 months follow-up; in the same way, 12 patients with achilles tendon lesion (8 male and 4 female) with mean age 44,5 y. (min 32-max 58 years) and 10 patients with “Jumper’s Knee” (8 male and 2 female) with mean age 23,2 y. (min 18-max 37 years), were evaluated at 6 months follow up. The procedure involved 3 multiple injections , performed every two weeks. All patients were clinically evaluated at the end of the treatment and at 6 months follow up. IKDC, SF36, EQ-VAS, scores were used for clinical evaluation and patient satisfaction and functional status were also recorded. Results: Statistical analysis showed a significant improvement in the SF36 questionnaire in all parameters evaluated at the end of the therapy and 6 months follow-up in both group(tendinopathies and chondral lesions), and in the EQ VAS and IKDC score (paired T-test, p<0.0005) from basal evaluation to the end of the therapy, and a further improvement was present at 6 months follow-up. Whereas a higher improvement of the sport activity level was achieved in the “Jumper’s Knee” group. No complications related to the injections or severe adverse events were observed during the treatment and follow up period. Conclusion: PRP inhibits excess inflammation, apoptosis, and metalloproteinase activity. These interactive pathways may result in the restoration of tendon or cartilage, which can with stand loading with work or sports activity, thereby diminishing pain. PRP may also modulate the microvascular environment or alter efferent or afferent neural receptors. The clinical results are encouraging, indicating that PRP injections may have the potential to increase the tendon and cartilage healing capacity in cases with chronic tendinosis and chondropathy of the knee.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il Soprintendente Alfredo Barbacci fu uomo di poliedrica formazione, perito nell’uso di metodiche innovative di restauro ed esperto delle tecniche di ricomposizione delle forme architettoniche dei complessi monumentali, danneggiati dai bombardamenti del secondo conflitto mondiale. Quel che, questo studio ha inteso indagare e comprendere, attraverso un approccio critico, sostanziato dalle carte d’archivio, è fondamentalmente il contributo, da egli ha offerto circa la valenza storica e architettonica del tessuto connettivo di base della città, da cui si originava - negli anni della sua attività - l’idea ancora inedita di un bene culturale e sociale nuovo: il centro storico tutto, con annessi monumenti, complessi architettonici nobili ed edilizia minore, di base. Dando avvio all’analisi sistematica delle teorie e della prassi di Alfredo Barbacci e alla lettura puntuale dei suoi scritti, sono stati razionalizzati il significato, le valenze e le implicazioni del termine edilizia minore all’interno del più ampio contesto del restauro dell’edilizia monumentale e alla luce degli elementi di tendenza, portati all’attenzione dal dibattito delle diverse scuole di pensiero sul restauro, a partire dai primi anni del sec. XX fino agli anni Settanta dello scorso secolo. Concretamente vi si evidenziano interessanti intuizioni e dichiarazioni, afferenti la necessità di un restauro del tipo integrato, da intendersi come strumento privilegiato di intervento sul tessuto nobile e meno nobile della città antica. Al termine della sua carriera, il contributo del Soprintendente Barbacci al dibattito scientifico si documenta da sé, nella compilazione a sua firma di quella parte della Relazione Franceschini, in cui si dava proposta di un corpo normativo alla necessità di guardare alla città storica come a un bene culturale e sociale, insistendo come al suo interno era d’uopo mantenere, nel corso di interventi restaurativi, un razionale equilibrio tra monumento ed edilizia minore già storicizzata e che non escludesse anche l’apparato paesaggistico di contorno.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il vigore è un aspetto rilevante della qualità delle sementi, strettamente connesso al loro status fisiologico, al genotipo e alle condizioni di stoccaggio. Stress ossidativi e danni alle macromolecole sono alla base del deterioramento del seme, che è equipaggiato con sistemi protettivi e di riparazione. Uno di questi coinvolge l’L-isoaspartil metiltransferasi (PIMT) che ripara i misfolding proteici catalizzando la riconversione in aspartato dell’isoaspartile anomalo accumulato. Scopo di questo studio era valutare il possibile ruolo del meccanismo di riparazione di PIMT nel vigore del seme in girasole. Per questo il relativo gene è stato isolato e caratterizzato, la variabilità allelica determinata su un campione di linee inbred e l’espressione genica misurata in risposta all’invecchiamento accelerato (aging) e al priming. La sequenza codificante ottenuta è costituita da 4 esoni e contiene i 5 domini caratteristici delle metiltransferasi. Il gene mostra elevata similarità con gli ortologhi vegetali e scarsa diversità nucleotidica nei genotipi coltivati rappresentativi della variabilità della specie. Nella sequenza aminoacidica, comunque, sono state rinvenute tre sostituzioni che potrebbero influenzare la funzionalità enzimatica. Dal punto di vista fisiologico i genotipi considerati hanno esibito notevole variabilità di risposte ai trattamenti, sia in termini di vigore che di espressione genica. Aging e priming hanno prodotto generalmente gli effetti attesi, rispettivamente negativi e positivi, sulla germinabilità e sulla sua velocità. In generale l’espressione di PIMT è risultata massima nel seme secco, come riportato altrove, e ridotta dall’aging. Anche il priming ha diminuito l’espressione rispetto al seme quiescente, mentre il suo effetto dopo l’aging è risultato genotipo-dipendente. Tuttavia, nelle condizioni descritte, non si sono evidenziate correlazioni significative tra vigore ed espressione di PIMT, tali da suggerire un chiaro ruolo di questo meccanismo nella qualità fisiologica del seme.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obbiettivo. Analizzare la funzionalità polmonare e diaframmatica dopo interventi di plicatura del diaframma con rete di rinforzo peri-costale eseguiti per relaxatio e riparazione di ernia transdiaframmatica cronica mediante riduzione e sutura diretta. Metodi. Dal 1996 al 2010, 10 pazienti con relaxatio unilaterale del diaframma e 6 pazienti con ernia transdiaframmatica cronica misconosciuta sono stati sottoposti a chirurgia elettiva. Gli accertamenti preoperatori e al follow-up di 12 mesi includevano prove di funzionalità respiratoria, misura della pressione massimale inspiratoria alla bocca in clino e ortostatismo, emogasanlisi, TC del torace e dispnea score. Risultati. I pazienti dei due gruppi non differivano in termini di funzionalità respiratoria preoperatoria nè di complicanze postoperatorie; al follow-up a 12 mesi il gruppo Eventrazione mostrava un significativo aumento del FEV1% (+18,2 – p<0.001), FVC% (+12,8 – p<0.001), DLCO% (+6,84 – p=0,04) e pO2 (+9,8 mmHg – p<0.001). Al contrario nrl gruppo Ernia solo il miglioramento della pO2 era significativo (+8.3 – p=0.04). Sebbene la massima pressione inspiratoria (PImax) fosse aumentata in entrambi i gruppi al follow-up, i pazienti operati per ernia mostravano un miglioramento limitato con persistente caduta significativa della PImax dall’ortostatismo al clinostatismo (p<0.001). Il Transitional dyspnoea score è stato concordante con tali miglioramenti pur senza differenze significative tra i due gruppi. La TC del torace ha evidenziato una sopraelevazione dell’emidiaframma suturato, senza recidiva di ernia, mentre i pazienti sottoposti a plicatura hanno mantenuto l’ipercorrezione. Conclusioni. L’utilizzo di un rinforzo protesico è sicuro e sembra assicurare risultati funzionali migliori a distanza in termini di flussi respiratori e di movimento paradosso del diaframma (valutato mediante PImax). Lacerazioni estese del diaframma coinvolgenti le branche principali di suddivisione del nervo frenico si associano verosimilmente a una relaxatio che può quindi ridurre il guadagno funzionale a lungo termine se non adeguatamente trattata mediante l’utilizzo di un rinforzo protesico.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Obiettivo: Il nostro obiettivo è stato quello di confrontare la tomoterapia (HT) e la protonterapia ad intensità modulata (IMPT) nel trattamento del tumore prostatico, seguendo un protocollo di boost simultaneo (SIB) e moderatamente ipofrazionato. Materiali e metodi: Abbiamo selezionato 8 pazienti, trattati con HT e abbiamo rielaborato i piani con 2 campi IMPT. La dose prescritta è stata di 74 Gy sul PTV1 (prostata e vescicole seminali prossimali), 65.8 Gy sul PTV2 (vescicole seminali distali) e 54 Gy sul PTV3 (linfonodi pelvici). Risultati: Sia con IMPT che con HT abbiamo ottenuto una copertura e una omogeneità di dose del target sovrapponibile. Oltre i 65 Gy, HT e IMPT erano equivalenti per il retto, mentre con l’IMPT c’era maggior risparmio della vescica e del bulbo penieno da 0 a 70 Gy. Da 0 fino a 60 Gy, i valori dosimetrici dell’IMPT erano molto più bassi per tutti gli organi a rischio (OARs), eccetto che per le teste femorali, dove la HT aveva un vantaggio dosimetrico rispetto all’IMPT nel range di dose 25-35 Gy. La dose media agli OARs era ridotta del 30-50% con l’IMPT. Conclusioni: Con le due tecniche di trattamento (HT e IMPT) si ottiene una simile distribuzione di dose nel target. Un chiaro vantaggio dosimetrico dell’IMPT sul HT è ottenuto dalle medie e basse dosi. Le attuali conoscenze sulle relazioni dose-effetto e sul risparmio delle madie e basse dosi con l’IMPT non sono ancora state quantificate dal punto di vista clinico.