50 resultados para Verdaguer, Jacint, 1845-1902. Al cel -- Crítica i interpretació
Resumo:
L’obesità ad oggi è considerata un’epidemia globale ed è tutt’ora in rapido aumento insieme a tutte le comorbidità ad essa associate. Il gold standard per il trattamento di questa patologia è la terapia dietetico-comportamentale. Tuttavia, essa frequentemente si rivela non sufficiente nei quadri di obesità severa; in questo caso è possibile valutare la farmacoterapia, seppur sempre accostata alle indicazioni alimentari. Un’altra opzione è la chirurgia bariatrica, ritenuta una delle più efficaci forme di terapia per la cura dell’obesità severa. Molto importante per l’inquadramento clinico del paziente è la rilevazione delle abitudini alimentari, eseguita tramite diversi strumenti, quali l’Indagine Alimentare, il Recall delle 24 ore e il Diario Alimentare. Recentemente sono stati formulati diversi Food Frequency Questionnaires, ovvero questionari compilati direttamente del paziente con l’obiettivo di indagare sul consumo abituale dei principali prodotti alimentari suddivisi in categorie. Obiettivo: l’obiettivo di questo studio è stato quello di valutare l’appropriatezza di un Food Frequency Questionnaire composto da un totale di 7 categorie e 31 prodotti alimentari nella rilevazione delle abitudini di una popolazione di pazienti con diagnosi di obesità. Metodo: sono stati contattati telefonicamente 70 pazienti, suddivisi in due sottogruppi, ai quali sono state fornite istruzioni per la compilazione di un Diario Alimentare di tre giorni e del Food Frequency Questionnaire. Risultati: è stata considerata accettabile una differenza inferiore al 10% tra i valori derivanti dai due strumenti: su un campione totale di 52 pazienti, tale differenza è stata rilevata in 35 soggetti per quanto riguarda l’intake energetico, in 17 pazienti per i glucidi, in 7 partecipanti per l’apporto di proteine e in 13 casi per i lipidi. Conclusioni: i risultati confermano l’ipotesi che il Food Frequency Questionnaire fornisca valutazioni sovrapponibili a quelle derivanti dal Diario Alimentare.
Resumo:
Il lavoro di tesi presentato è nato da una collaborazione con il Politecnico di Macao, i referenti sono: Prof. Rita Tse, Prof. Marcus Im e Prof. Su-Kit Tang. L'obiettivo consiste nella creazione di un modello di traduzione automatica italiano-cinese e nell'osservarne il comportamento, al fine di determinare se sia o meno possibile l'impresa. Il trattato approfondisce l'argomento noto come Neural Language Processing (NLP), rientrando dunque nell'ambito delle traduzioni automatiche. Sono servizi che, attraverso l'ausilio dell'intelligenza artificiale sono in grado di elaborare il linguaggio naturale, per poi interpretarlo e tradurlo. NLP è una branca dell'informatica che unisce: computer science, intelligenza artificiale e studio di lingue. Dal punto di vista della ricerca, le più grandi sfide in questo ambito coinvolgono: il riconoscimento vocale (speech-recognition), comprensione del testo (natural-language understanding) e infine la generazione automatica di testo (natural-language generation). Lo stato dell'arte attuale è stato definito dall'articolo "Attention is all you need" \cite{vaswani2017attention}, presentato nel 2017 a partire da una collaborazione di ricercatori della Cornell University.\\ I modelli di traduzione automatica più noti ed utilizzati al momento sono i Neural Machine Translators (NMT), ovvero modelli che attraverso le reti neurali artificiali profonde, sono in grado effettuare traduzioni o predizioni. La qualità delle traduzioni è particolarmente buona, tanto da arrivare quasi a raggiungere la qualità di una traduzione umana. Il lavoro infatti si concentrerà largamente sullo studio e utilizzo di NMT, allo scopo di proporre un modello funzionale e che sia in grado di performare al meglio nelle traduzioni da italiano a cinese e viceversa.
Resumo:
A recent integral-field spectroscopic (IFS) survey, the MASSIVE survey (Ma et al. 2014), observed the 116 most massive (MK < −25.3 mag, stellar mass M∗ > 10^11.6 M⊙) early-type galaxies (ETGs) within 108 Mpc, out to radii as large as 40 kpc, that correspond to ∼ 2 − 3 effective radii (Re). One of the major findings of the MASSIVE survey is that the galaxy sample is split nearly equally among three groups showing three different velocity dispersion profiles σ(R) outer of a radius ∼ 5 kpc (falling, flat and rising with radius). The purpose of this thesis is to model the kinematic profiles of six ETGs included in the MASSIVE survey and representative of the three observed σ(R) shapes, with the aim of investigating their dynamical structure. Models for the chosen galaxies are built using the numerical code JASMINE (Posacki, Pellegrini, and Ciotti 2013). The code produces models of axisymmetric galaxies, based on the solution of the Jeans equations for a multicomponent gravitational potential (supermassive black hole, stars and dark matter halo). With the aim of having a good agreement between the kinematics obtained from the Jeans equations, and the observed σ and rotation velocity V of MASSIVE (Veale et al. 2016, 2018), I derived constraints on the dark matter distribution and orbital anisotropy. This work suggests a trend of the dark matter amount and distribution with the shape of the velocity dispersion profiles in the outer regions: the models of galaxies with flat or rising velocity dispersion profiles show higher dark matter fractions fDM both within 1 Re and 5 Re. Orbital anisotropy alone cannot account for the different observed trends of σ(R) and has a minor effect compared to variations of the mass profile. Galaxies with similar stellar mass M∗ that show different velocity dispersion profiles (from falling to rising) are successfully modelled with a variation of the halo mass Mh.
Resumo:
In questo lavoro di tesi viene presentato e validato un modello di rischio di alluvione a complessità intermedia per scenari climatici futuri. Questo modello appartiene a quella categoria di strumenti che mirano a soddisfare le esigenze identificate dal World Climate Research Program (WRCP) per affrontare gli effetti del cambiamento climatico. L'obiettivo perseguito è quello di sviluppare, seguendo un approccio ``bottom-up" al rischio climatico regionale, strumenti che possano aiutare i decisori a realizzare l'adattamento ai cambiamenti climatici. Il modello qui presentato è interamente basato su dati open-source forniti dai servizi Copernicus. Il contributo di questo lavoro di tesi riguarda lo sviluppo di un modello, formulato da (Ruggieri et al.), per stimare i danni di eventi alluvionali fluviali per specifici i livelli di riscaldamento globale (GWL). Il modello è stato testato su tre bacini idrografici di medie dimensioni in Emilia-Romagna, Panaro, Reno e Secchia. In questo lavoro, il modello viene sottoposto a test di sensibilità rispetto a un'ipotesi enunciata nella formulazione del modello, poi vengono effettuate analisi relative all'ensemble multi-modello utilizzato per le proiezioni. Il modello viene quindi validato, confrontando i danni stimati nel clima attuale per i tre fiumi con i danni osservati e confrontando le portate simulate con quelle osservate. Infine, vengono stimati i danni associati agli eventi alluvionali in tre scenari climatici futuri caratterizzati da GWL di 1.5° C, 2.0° C e 3.0°C.
Resumo:
L'erogazione dei servizi informatici tramite cloud è ormai una delle soluzioni più in voga nel mercato odierno, tant'è che, analizzando le statistiche fornite dalle piattaforme principali, anche il futuro sembra andare proprio in quella direzione. Quest'evoluzione avrà un forte impatto persino nelle telecomunicazioni, dove le tecniche di virtualizzazione e softwarizzazione vengono già oggi impiegate per facilitare la gestione delle infrastrutture di rete, creando le cosiddette SDN (Software Defined Network). I provider che scelgono di adottare queste soluzioni ottengono un elevato grado di flessibilità dei propri servizi, facilitando notevolmente lo sviluppo di nuove funzionalità, grazie alla presenza di controller esterni a cui vengono demandati gli aspetti di gestione della rete stessa. In uno scenario di questo tipo è fondamentale che gli strumenti volti allo studio e alla sperimentazione di reti software-based siano in grado di stare al passo con i tempi, utilizzando tecnologie all'avanguardia ed accessibili anche agli utenti che si interfacciano per la prima volta con queste metodologie. Perché questo sia possibile è necessario che telecomunicazioni e sviluppo software, aspetti storicamente appartenenti a due mondi dell'informatica paralleli, si uniscano. Ad oggi gli strumenti che permettono di operare su SDN sono innumerevoli, ma spesso accomunati dalla mancanza di qualsivoglia interfaccia grafica, restringendo l'utenza di riferimento ad un gruppo ancor più di nicchia, escludendo gli utilizzatori alle prime armi. L'obiettivo di questo progetto è proporre uno strumento alternativo, basato su Ryu, che permetta all’utente di creare, configurare e gestire secondo le proprie esigenze una rete virtuale, attraverso un’interfaccia grafica e un simulatore interattivo per controllare e visualizzare lo stato dei dispositivi connessi. Infine, verranno analizzati i vantaggi didattici ottenuti dall'impiego dell'applicativo rispetto alle metodologie classiche.