207 resultados para Basi di dati, Database, Linq, Entity framework, Workflow, Database
Resumo:
La presente tesi rappresenta il primo studio dedicato all’interpretazione simultanea dal polacco all’italiano. La presente ricerca cerca di identificare il modo in cui interpreti di comprovata esperienza gestiscono alcune difficoltà tipiche della sintassi polacca fortemente divergenti da quella italiana. La scelta di studiare le catene nominali deriva dal confronto di quanto emerso dalle indagini sulla linguistica contrastiva con un’inchiesta tra gli interpreti accreditati presso le istituzioni europee per quella combinazione. Il primo capitolo è dedicato ad una panoramica sui contatti passati e presenti tra l’Italia e la Polonia e ad una riflessione sulla lingua polacca in chiave contrastiva con l’italiano. Il secondo capitolo si concentra sulla ricerca nell’ambito dell’interpretazione simultanea, in particolare sugli studi contrastivi e sulla discussione delle strategie usate dagli interpreti. Il terzo capitolo approfondisce il contesto di questo studio ovvero le istituzioni europee, il il multilinguismo e il regime linguistico al Parlamento Europeo. Il quarto capitolo include l’indagine del lavoro, condotta su un ampio corpus di dati. Sono stati infatti trascritti e analizzati tutti gli interventi tenuti in lingua polacca in occasione delle sedute parlamentari a Strasburgo e a Bruxelles del 2011 e del primo semestre 2009 e le relative interppretazioni in italiano (per un totale di oltre 9 ore di parlato per lingua). Dall’analisi è risultato che l’interprete nella maggior parte dei casi cerca, nonostante la velocità d’eloquio dell’oratore, di riprodurre fedelmente il messaggio. Tuttavia, qualora questo non risulti possibile, si è notato come gli interpreti ricorrano in maniera consapevole all’omissione di quelle informazioni desumibili o dal contesto o dalle conoscenze pregresse dell’ascoltatore. Di conseguenza la riduzione non rappresenta una strategia di emergenza ma una risorsa da applicare consapevolmente per superare le difficoltà poste da lunghe sequenze di sostantivi.
Resumo:
A 7 anni dall’avvio dell’ attuazione della Politica di Coesione dell’Unione Europea 2007- 2013, l’Italia ha il tasso di assorbimento dei Fondi Strutturali più basso d’Europa, insieme alla Romania, e rischia di subire un disimpegno delle risorse, che rappresenterebbe un gravissimo fallimento economico e politico. Il contributo di questo lavoro al dibattito sull’uso dei Fondi strutturali in Italia è duplice. Da una parte, per la prima volta, si propone uno studio sistematico delle criticità nella gestione del periodo 2007-2013, che hanno causato l’attuale ritardo nella spesa. Dall’altra, si affronta il problema italiano sia da una prospettiva europea sia nella sua dimensione nazionale, indagando le differenze regionali nella performance di spesa e proponendo un’analisi basata su tre dimensioni principali delle criticità: finanziaria, politica, amministrativa. L’approccio della ricerca consiste nella convergenza di dati quantitativi e qualitativi, raccolti durante un periodo di ricerca a Bruxelles e presso le Autorità di Gestione dei Programmi Operativi cofinanziati dal FESR. La questione dell’assorbimento finanziario e del ritardo nell’attuazione è stata indagata da tre punti di vista. Una prospettiva “storica”, che ha raccontato il ritardo strutturale nell’utilizzo dei Fondi Strutturali in Italia e che ha chiarito come il problema italiano, prima dell’attuale ciclo 2007-2013, sia stato non di quantità, ma di qualità della spesa. La seconda prospettiva è stata di respiro europeo, ed è servita a indagare le cause del basso livello di assorbimento finanziario dell’Italia suggerendo alcuni elementi utili a comprendere le ragioni di un simile divario con gli altri Paesi. Infine, la prospettiva nazionale e regionale ha svelato l’esistenza di un mix complesso, e micidiale, che ha letteralmente paralizzato la spesa italiana dei Fondi. Un mix di fattori finanziari, politici e amministrativi che non ha avuto eguali negli altri Paesi, e che si è concentrato soprattutto, ma non esclusivamente, nelle regioni dell’Obiettivo Convergenza.
Resumo:
The uncertainties in the determination of the stratigraphic profile of natural soils is one of the main problems in geotechnics, in particular for landslide characterization and modeling. The study deals with a new approach in geotechnical modeling which relays on a stochastic generation of different soil layers distributions, following a boolean logic – the method has been thus called BoSG (Boolean Stochastic Generation). In this way, it is possible to randomize the presence of a specific material interdigitated in a uniform matrix. In the building of a geotechnical model it is generally common to discard some stratigraphic data in order to simplify the model itself, assuming that the significance of the results of the modeling procedure would not be affected. With the proposed technique it is possible to quantify the error associated with this simplification. Moreover, it could be used to determine the most significant zones where eventual further investigations and surveys would be more effective to build the geotechnical model of the slope. The commercial software FLAC was used for the 2D and 3D geotechnical model. The distribution of the materials was randomized through a specifically coded MatLab program that automatically generates text files, each of them representing a specific soil configuration. Besides, a routine was designed to automate the computation of FLAC with the different data files in order to maximize the sample number. The methodology is applied with reference to a simplified slope in 2D, a simplified slope in 3D and an actual landslide, namely the Mortisa mudslide (Cortina d’Ampezzo, BL, Italy). However, it could be extended to numerous different cases, especially for hydrogeological analysis and landslide stability assessment, in different geological and geomorphological contexts.
Resumo:
La tesi affronta la vita e la riflessione politica di Beatrice Potter collocandola all’interno del pensiero politico britannico ed europeo della fine dell’Ottocento e dei primi decenni del Novecento. Rispetto alla maggior parte della bibliografia disponibile, risulta un’autonomia e un’originalità anche rispetto alla riflessione del marito Sidney Webb. La riflessione politica di Potter è caratterizzata in primo luogo dalla ricerca del significato immediatamente politico di quella scienza sociale, che si sta affermando come approccio scientifico dominante nell’intero panorama europeo. Il lavoro è diviso in tre ampi capitoli così suddivisi: il primo ricostruisce l’eredità intellettuale di Potter, con particolare attenzione al rapporto con la filosofia evoluzionista di Herbert Spencer, suo mentore e amico. In questo capitolo vengono anche discussi i contributi di John Stuart Mill, Joseph Chamberlain, Alfred Marshall e Karl Marx e la loro influenza sull’opera di Potter. Il secondo capitolo prende in esame la sua opera prima dell’incontro con il marito e mostra come lo studio della povertà, del lavoro, della metropoli, della cooperazione e delle condizioni delle donne getti le basi di tutta la produzione successiva della partnership. Lo studio politico della povertà, cioè la messa a punto di una scienza amministrativa del carattere sociale del lavoro, rappresenta uno degli elementi principali di quella che viene qui definita un’epistemologia della democrazia. Il terzo capitolo riprende il tema cruciale della democrazia nella sua accezione «industriale» e indaga il ruolo funzionale dello Stato, anche in relazione alla teoria pluralista di Harold Laski, al socialismo guildista di George D. H. Cole e all’idealismo di Bernard Bosanquet. Centrale in questo confronto del pensiero di Potter con il più ampio dibattito degli anni venti e trenta sulla sovranità è la concezione della decadenza della civiltà capitalista e dell’emergere di una new civilisation, dopo la conversione al comunismo sovietico.
Resumo:
Una stampa libera e plurale è un elemento fondante di ogni sistema democratico ed è fondamentale per la creazione di un’opinione pubblica informata e in grado di esercitare controllo e pressione sulle classi dirigenti. Dal momento della loro creazione i giornali si sono imposti come un’importantissima fonte di informazione per l’opinione pubblica. La seconda metà del Novecento, inoltre, ha conosciuto innovazioni tecnologiche che hanno portato grandi cambiamenti nel ruolo della carta stampata come veicolo di trasmissione delle notizie. Partendo dalla diffusione della televisione fino ad arrivare alla rivoluzione digitale degli anni ’90 e 2000, la velocità di creazione e di trasmissione delle informazioni è aumentata esponenzialmente, i costi di produzione e di acquisizione delle notizie sono crollati e una quantità enorme di dati, che possono fornire moltissime informazioni relative alle idee e ai contenuti proposti dai diversi autori nel corso del tempo, è ora a disposizione di lettori e ricercatori. Tuttavia, anche se grazie alla rivoluzione digitale i costi materiali dei periodici si sono notevolmente ridotti, la produzione di notizie comporta altre spese e pertanto si inserisce in un contesto di mercato, sottoposto alle logiche della domanda e dell'offerta. In questo lavoro verrà analizzato il ruolo della domanda e della non perfetta razionalità dei lettori nel mercato delle notizie, partendo dall’assunto che la differenza di opinioni dei consumatori spinge le testate a regolare l’offerta di contenuti, per venire incontro alla domanda di mercato, per verificare l’applicabilità del modello utilizzato (Mullainhatan e Shleifer, 2005) al contesto italiano. A tale scopo si è analizzato il comportamento di alcuni quotidiani nazionali in occasione di due eventi che hanno profondamente interessato l'opinione pubblica italiana: il fenomeno dei flussi migratori provenienti dalla sponda sud del Mediterraneo nel mese di ottobre 2013 e l'epidemia di influenza H1N1 del 2009.
Resumo:
Hadrontherapy employs high-energy beams of charged particles (protons and heavier ions) to treat deep-seated tumours: these particles have a favourable depth-dose distribution in tissue characterized by a low dose in the entrance channel and a sharp maximum (Bragg peak) near the end of their path. In these treatments nuclear interactions have to be considered: beam particles can fragment in the human body releasing a non-zero dose beyond the Bragg peak while fragments of human body nuclei can modify the dose released in healthy tissues. These effects are still in question given the lack of interesting cross sections data. Also space radioprotection can profit by fragmentation cross section measurements: the interest in long-term manned space missions beyond Low Earth Orbit is growing in these years but it has to cope with major health risks due to space radiation. To this end, risk models are under study: however, huge gaps in fragmentation cross sections data are currently present preventing an accurate benchmark of deterministic and Monte Carlo codes. To fill these gaps in data, the FOOT (FragmentatiOn Of Target) experiment was proposed. It is composed by two independent and complementary setups, an Emulsion Cloud Chamber and an electronic setup composed by several subdetectors providing redundant measurements of kinematic properties of fragments produced in nuclear interactions between a beam and a target. FOOT aims to measure double differential cross sections both in angle and kinetic energy which is the most complete information to address existing questions. In this Ph.D. thesis, the development of the Trigger and Data Acquisition system for the FOOT electronic setup and a first analysis of 400 MeV/u 16O beam on Carbon target data acquired in July 2021 at GSI (Darmstadt, Germany) are presented. When possible, a comparison with other available measurements is also reported.
Resumo:
Nuclear cross sections are the pillars onto which the transport simulation of particles and radiations is built on. Since the nuclear data libraries production chain is extremely complex and made of different steps, it is mandatory to foresee stringent verification and validation procedures to be applied to it. The work here presented has been focused on the development of a new python based software called JADE, whose objective is to give a significant help in increasing the level of automation and standardization of these procedures in order to reduce the time passing between new libraries releases and, at the same time, increasing their quality. After an introduction to nuclear fusion (which is the field where the majority of the V\&V action was concentrated for the time being) and to the simulation of particles and radiations transport, the motivations leading to JADE development are discussed. Subsequently, the code general architecture and the implemented benchmarks (both experimental and computational) are described. After that, the results coming from the major application of JADE during the research years are presented. At last, after a final discussion on the objective reached by JADE, the possible brief, mid and long time developments for the project are discussed.
Resumo:
Our objective in this thesis is to study the pseudo-metric and topological structure of the space of group equivariant non-expansive operators (GENEOs). We introduce the notions of compactification of a perception pair, collectionwise surjectivity, and compactification of a space of GENEOs. We obtain some compactification results for perception pairs and the space of GENEOs. We show that when the data spaces are totally bounded and endow the common domains with metric structures, the perception pairs and every collectionwise surjective space of GENEOs can be embedded isometrically into the compact ones through compatible embeddings. An important part of the study of topology of the space of GENEOs is to populate it in a rich manner. We introduce the notion of a generalized permutant and show that this concept too, like that of a permutant, is useful in defining new GENEOs. We define the analogues of some of the aforementioned concepts in a graph theoretic setting, enabling us to use the power of the theory of GENEOs for the study of graphs in an efficient way. We define the notions of a graph perception pair, graph permutant, and a graph GENEO. We develop two models for the theory of graph GENEOs. The first model addresses the case of graphs having weights assigned to their vertices, while the second one addresses weighted on the edges. We prove some new results in the proposed theory of graph GENEOs and exhibit the power of our models by describing their applications to the structural study of simple graphs. We introduce the concept of a graph permutant and show that this concept can be used to define new graph GENEOs between distinct graph perception pairs, thereby enabling us to populate the space of graph GENEOs in a rich manner and shed more light on its structure.
Resumo:
Il presente elaborato ha per oggetto la tematica del Sé, in particolar modo il Sé corporeo. Il primo capitolo illustrerà la cornice teorica degli studi sul riconoscimento del Sé corporeo, affrontando come avviene l’elaborazione del proprio corpo e del proprio volto rispetto alle parti corporee delle altre persone. Il secondo capitolo descriverà uno studio su soggetti sani che indaga l’eccitabilità della corteccia motoria nei processi di riconoscimento sé/altro. I risultati mostrano un incremento dell’eccitabilità corticospinale dell’emisfero destro in seguito alla presentazione di stimoli propri (mano e cellulare), a 600 e 900 ms dopo la presentazione dello stimolo, fornendo informazioni sulla specializzazione emisferica substrati neurali e sulla temporalità dei processi che sottendono all’elaborazione del sé. Il terzo capitolo indagherà il contributo del movimento nel riconoscimento del Sé corporeo in soggetti sani ed in pazienti con lesione cerebrale destra. Le evidenze mostrano come i pazienti, che avevano perso la facilitazione nell’elaborare le parti del proprio corpo statiche, presentano tale facilitazione in seguito alla presentazione di parti del proprio corpo in movimento. Il quarto capitolo si occuperà dello sviluppo del sé corporeo in bambini con sviluppo atipico, affetti da autismo, con riferimento al riconoscimento di posture emotive proprie ed altrui. Questo studio mostra come alcuni processi legati al sé possono essere preservati anche in bambini affetti da autismo. Inoltre i dati mostrano che il riconoscimento del sé corporeo è modulato dalle emozioni espresse dalle posture corporee sia in bambini con sviluppo tipico che in bambini affetti da autismo. Il quinto capitolo sarà dedicato al ruolo dei gesti nel riconoscimento del corpo proprio ed altrui. I dati di questo studio evidenziano come il contenuto comunicativo dei gesti possa facilitare l’elaborazione di parti del corpo altrui. Nella discussione generale i risultati dei diversi studi verranno considerati all’interno della loro cornice teorica.
Resumo:
Introduzione: Le catene N-linked associate al principale sito di N-glicosilazione (Asn297) delle IgG sono di tipo bi-antennario e presentano una grande microeterogeneità in quanto una o entrambe le antenne possono terminare con uno o due residui di acido sialico, galattosio o N-acetilglucosammina ed essere core-fucosilate. Nell’invecchiamento e in malattie infiammatorie aumenta la percentuale di glicani associati alle catene pesanti delle IgG privi del galattosio terminale (IgG-G0). La glicosilazione enzimatica delle proteine è classicamente un processo intracellulare, sebbene recenti studi abbiano messo in evidenza la possibilità di una glicosilazione ecto-cellulare in quanto le piastrine sono ottimi donatori di nucleotidi-zuccheri. Scopo: Misurare le attività delle glicosiltrasferasi ST6Gal1 e B4GalT plasmatiche (potenzialmente responsabili della glicosilazione di proteine plasmatiche) in soggetti di entrambi i sessi e di età compresa tra 5 e 105 anni e correlarle con lo stato di glicosilazione di IgG circolanti (analizzato mediante lectin-blot) e il GlycoAge test, un noto marcatore di invecchiamento, espresso come il logaritmo del rapporto tra gli N-glicani agalattosilati e di-galattosilati associati a glicoproteine plasmatiche. Risultati e conclusioni: I dati ottenuti indicano che: 1) l’attività B4GalT si propone come nuovo marcatore di invecchiamento perché aumenta linearmente con l’età; 2) la ST6Gal1 è maggiormente espressa solo nei bambini e negli over 80; 3) le attività delle due glicosilatransferasi non risultano correlate in modo significativo né tra loro né con il GlycoAge test, indicando che questi tre marcatori siano espressioni di diversi quadri fisio-patologici legati all’invecchiamento; 4) con l’età si ha una predominanza di glicoforme di IgG pro-infiammatorie, ovvero prive dell’acido sialico, del galattosio terminali e del core fucose; 5) l’attività della ST6Gal1 e B4GalT risultano in controtendenza con il grado di sialilazione e galattosilazione delle IgG, indicando quindi che la loro glicosilazione non avviene a livello extracellulare.
Resumo:
La presente ricerca è rivolta allo studio della progettazione scolastica ed è stata finalizzata all’osservazione dell’impatto prodotto su di essa dalla progressiva introduzione dei nuovi documenti di progettazione oggi in uso nelle scuole italiane. Al fine di delineare i costrutti fondamentali da indagare è stato realizzato uno studio preliminare della letteratura scientifica di riferimento a partire dal dibattito statunitense sul curricolo avviato a inizio Novecento. Dopo una ricognizione sui successivi studi realizzati in ambito nordamericano ed europeo, una parte della ricerca è stata specificamente dedicata al dibattito nel contesto italiano. L’ultima parte di questo percorso è stata rivolta alla recente ripresa di interesse verso le ricerche sul curricolo e le nuove prospettive portate dall’internazionalizzazione di questi studi dovute all’opera dei cosiddetti riconcettualizzatori. La seconda parte della ricerca è stata dedicata allo studio della normativa scolastica italiana in tema di progettazione a partire dal secondo dopoguerra. Particolare attenzione è stata data alle riforme degli ultimi due decenni. Su queste basi teoriche e concettuali è stato quindi predisposto il percorso di ricerca empirica realizzato nelle scuole campione e la successiva analisi dei dati raccolti. Lo scopo della ricerca è stato quello di evidenziare e quantificare l’entità e la natura dei potenziali elementi di continuità e di discontinuità presenti nel sistema di progettazione scolastica attraverso la voce dei docenti che operano sul campo. Il campione è stato individuato tra gli istituti comprensivi della provincia di Udine. Una ricerca analoga è stata condotta presso le scuole statali italiane in Spagna, nelle città di Madrid e Barcellona, dove ancora non sono state introdotte le nuove pratiche di progettazione. Questo ha consentito di poter comparare i dati in un contesto paragonabile a quello previgente in Italia e di fare ulteriori valutazioni sull’impatto prodotto sul lavoro dei docenti dall’introduzione dei nuovi documenti di progettazione.
Resumo:
Il progetto del dottorato di ricerca ha permesso di estendere il lavoro svolto sul Sistema Informativo 3D del Cantiere della Fontana del Nettuno al fine di definire la struttura concettuale e i relativi contenuti tematici di una piattaforma open source in grado di sviluppare la documentazione di restauro, sia per opere complesse caratterizzate dalla presenza di molti materiali costitutivi, sia per interventi più semplici nel quale preservare memoria e fornire libero accesso ai dati. Il confronto tra il SI del Cantiere della Fontana del Nettuno con le attuali metodologie utilizzate in campo nazionale ed internazionale ha permesso di ampliare i lessici necessari per la documentazione grafica e testuale da effettuare su diverse classi di materiali, creando delle cartelle integrate da combinare in base ai materiali costitutivi delle opere da restaurare. Il lavoro ha permesso la redazione di un lessico specifico per i diversi materiali costitutivi fornendo una banca dati informatizzata di facile consultazione.
Resumo:
A Digital Scholarly Edition is a conceptually and structurally sophisticated entity. Throughout the centuries, diverse methodologies have been employed to reconstruct a text transmitted through one or multiple sources, resulting in various edition types. With the advent of digital technology in philology, these practices have undergone a significant transformation, compelling scholars to reconsider their approach in light of the web. In the digital age, philologists are expected to possess (too) advanced technical skills to prepare interactive and enriched editions, even though, in most cases, only mechanical or documentary editions are published online. The Śivadharma Database is a web Content Management System (CMS) designed to facilitate the preparation, publication, and updating of Digital Scholarly Editions. By providing scholars with a user-friendly CRUD web application to reconstruct and annotate a text, they can prepare their textus with additional components such as apparatus, notes, translations, citations, and parallels. It is possible by leveraging an annotation system based on HTML and graph data structure. This choice is made because the text entity is multidimensional and multifaceted, even if its sequential presentation constrains it. In particular, editions of South Asian texts of the Śivadharma corpus, the case study of this research, contain a series of phenomena that are difficult to manage formally, such as overlapping hierarchies. Hence, it becomes necessary to establish the data structure best suited to represent this complexity. In Śivadharma Database, the textus is an HTML file readily displayable. Textual fragments, annotated via an interface without requiring philologists to write code and saved in the backend, form the atomic unit of multiple relationships organised in a graph database. This approach enables the formal representation of complex and overlapping textual phenomena, allowing for good annotation expressiveness with minimal effort to learn the relevant technologies during the editing workflow.
Resumo:
Il presente lavoro comincia con una descrizione dettagliata del “McMaster Model of Family Functionig” (MMFF), modello che al suo interno integra una teoria multidimensionale sul funzionamento familiare, diversi strumenti di auto ed etero valutazione e chiare indicazioni terapeutiche racchiuse all’interno della “Problem Centered System Therapy of the Family” (PCSTF). Grazie alla sua completezza il Modello fornisce ai clinici metodi coerenti, pratici ed empiricamente validi per valutare e trattare le famiglie, essi inoltre, sono stati formulati in modo da essere adattabili a differenti setting clinici e di ricerca, applicabili ad un’ampia gamma di problematiche e verificabili empiricamente. Obiettivo finale della presente ricerca è stato quello di porre le basi per l’esportazione del MMFF in Italia e poter quindi procedere alla sua applicazione in ambito clinico. La ricerca è cominciata alla Brown University con la traduzione dall’inglese all’italiano del Family Assessment Device (FAD), uno degli strumenti di autovalutazione compresi nel MMFF, ed è in seguito continuata con la validazione del suddetto strumento in un campione di 317 soggetti appartenenti alla popolazione generale italiana. Il FAD si è dimostrato uno strumento valido ed affidabile, in grado quindi di fornire valutazioni stabili e coerenti anche nella sua versione italiana. Il passo successivo è stato caratterizzato dalla somministrazione di FAD, Symptom Questionnaire (SQ) e delle Psychological Well-Being scales (PWB) a 289 soggetti reclutati nella popolazione generale. In accordo con il modello bipsicosociale che vede l’ambiente familiare come il più immediato gruppo di influenza psicosociale dello stato di benessere o malessere dell’individuo, i nostri dati confermano una stretta relazione tra scarso funzionamento familiare, spesso espresso attraverso difficoltà di comunicazione, di problem solving e scarso coinvolgimento affettivo e distress psicologico esperito con sintomi depressivi, ansiogeni ed ostilità. I nostri dati sottoliano inoltre come un funzionamento familiare positivo sia altamente correlato ad elevati livelli di benessere psicologico. Obiettivo della parte finale del lavoro ed anche il più importante, è stato quello di esplorare l’efficacia della Problem Centered Systems Therapy of the Family nella gestione della perdita di efficacia degli antidepressivi nel trattamento della depressione ricorrente. 20 soggetti con diagnosi di depressione maggiore ricorrente secondo il DSM-IV sono stati randomizzati a due diverse condizioni di trattamento: 1) aumento del dosaggio dell’antidepressivo e clinical management, oppure 2) mantenimento dello stesso dosaggio di antidepressivo e PCSTF. I dati di questo studio mettono in evidenza come, nel breve termine, PCSTF e farmacoterapia sono ugualmente efficaci nel ridurre la sintomatologia depressiva. Diversamente, ad un follow-up di 12 mesi, la PCSTF si è dimostrata altamente superiore all’aumento del farmaco ner prevenire le ricadute. Nel gruppo sottoposto all’aumento del farmaco infatti ben 6 soggetti su 7 ricadono entro l’anno. Nel gruppo assegnato a terapia familiare invece solo 1 soggetto su 7 ricade. Questi risultati sono in linea con i dati della letteratura che sottolineano l’elevata probabilità di una seconda ricaduta dopo l’aumento dell’antidepressivo all’interno di una farmacoterapia di mantenimento e suggeriscono l’efficacia dell’utilizzo di strategie psicoterapiche nella prevenzione della ricaduta in pazienti con depressione ricorrente.