994 resultados para Verdaguer, Jacint, 1845-1902. Al cel -- Crítica i interpretació
Resumo:
Nel nuovo secolo l’uomo sta cercando di affrontare le problematiche del cambiamento climatico, che purtroppo sta già provocando fenomeni di frequenza ed intensità mai visti. Fra i diversi metodi per provare a mitigare le emissioni di gas serra vi è quello di sfruttare il settore delle Informations and Communications Technologies (ICT). Complessivamente si stima che le ICT consumino l’8-10% di elettricità in Europa e che siano responsabili del 4% delle emissioni di carbonio del continente. Questo lavoro analizza la letteratura scientifica che si è occupata degli studi relativi ai consumi ed alle emissioni legate alle ICT. L’analisi dell’impatto ambientale viene svolta tramite il metodo Life Cycle Assessment (LCA). Nella prima parte di questa tesi si analizzano le impronte di carbonio di diversi prodotti o servizi degni di nota fino ad arrivare in generale a tutto il settore delle ICT. Nella seconda, si valutano gli impatti ambientali di sistemi implementati con le ICT comparati con altri considerati tradizionali. In questo studio, vengono analizzati i benefici e le criticità del metodo di valutazione LCA usato per studiare le ICT. Gli studi con questa tecnica sono basati sempre e solo su un modello matematico, per cui dipendono dalle ipotesi dello studio e sono associati ad una sostanziale incertezza che va considerata nell’analisi finale. Per questo motivo, applicando questo metodo al singolo prodotto, i risultati possono essere utili per fornire una base di dati per futuri studi, considerando, tuttavia, che non si può definire in maniera rigida l’impatto per ogni prodotto. Piuttosto, l’LCA è risultata più efficace per fare una comparazione tra scenari ICT e non ICT per valutare come si possa usare la tecnologia per mitigare l’impatto ambientale. Le ICT sono il presente ed il futuro della società ed è proprio per questo che è necessario monitorarle e svilupparle consapevolmente, perché per quanto l’impatto ambientale di esse possa sembrare basso, non è mai nullo.
Resumo:
Il diabete mellito è una delle malattie più diffuse al mondo ed i casi accertati aumentano ogni anno. Dai primi metodi di monitoraggio della glicemia attraverso ripetute punture, oggi si punta maggiormente su un monitoraggio continuo dei parametri di interesse. Sebbene le innovazioni tecnologiche legate al controllo del diabete si siano largamente fatte strada negli ultimi anni, spesso la praticità, i costi e la manutenzione di tali dispositivi non sono aspetti ottimali per gli individui che ne devono fare uso. L’obbiettivo tecnologico dei giorni d’oggi è quello di aumentare l’autonomia degli individui nell’utilizzo di dispositivi professionali per il miglioramento del proprio stile di vita, a maggior ragione in ambito medico-biologico. Questo elaborato analizza l’evoluzione dei metodi di rilevazione dei parametri legati alla malattia del diabete, con particolare attenzione sulle recenti proposte di innovazione tecnologica. Inoltre, si ripropone di evidenziare il metodo più efficace tra quelli esaminati: l’utilizzo di bioinchiostri come reagenti sottocutanei. Questa tecnica innovativa si ripromette di diminuire fortemente i costi e gli sprechi legati ai dispositivi monouso. Inoltre, permette una maggiore raccolta di informazioni continuative, attraverso la proposta di un accoppiamento con dispositivi mobili, largamente diffusi ai giorni d’oggi, da poter condividere facilmente e comodamente con il proprio gruppo di medici.
Resumo:
L’obiettivo di questa tesi è quello di analizzare uno dei generi principali del mondo della serialità: il teen drama. In particolare, la produzione Netflix del genere, soffermandomi sulla trattazione di due serie: Tredici e Sex Education. Partendo dalla considerazione che gli odierni teenager sono inseriti in una realtà digitale senza filtri, l’indagine è volta a dimostrare come Netflix, a mio avviso, sia in grado di utilizzare un linguaggio privo di retoriche per comunicare al meglio con i destinatari del genere, gli adolescenti e di impiegare tale linguaggio nella trattazione di tematiche sociali come il suicidio (Tredici) e il sesso (Sex Education), dandogli uno spessore all’interno della narrazione come mai era stato fatto nei teen drama precedenti. Prima di arrivare alla trattazione della tesi appena esposta, oggetto del terzo capitolo, il primo capitolo si sofferma sulla nascita del genere, facendo un riassunto dei principali titoli che hanno portato allo sviluppo e affermazione del genere dagli anni Novanta fino agli anni Dieci del Duemila. Nel secondo capitolo invece, analizzo le caratteristiche principali dei teen drama targati Netflix e di alcuni titoli del passato che sono riapparsi sulla piattaforma.
Resumo:
La crisi energetica che sta investendo l’Italia e l’Europa e la contestuale necessità di raggiungere gli obiettivi che la comunità internazionale si è preposta per uno sviluppo sostenibile stanno spingendo sempre di più verso l’utilizzo di fonti energetiche alternative. In questo contesto il gas naturale liquefatto (LNG) può assumere un ruolo chiave per il trasporto a lunghe distanze.Il gas naturale liquefatto fa parte della classe dei liquidi criogenici. Uno dei problemi principali dei liquidi criogenici riguarda gli aspetti di sicurezza come, ad esempio, il comportamento del liquido criogenico in seguito ad un rilascio accidentale.Questo lavoro di tesi si è focalizzato sulla caratterizzazione sperimentale del flusso l’evaporazione di liquidi criogenici.Per condurre lo studio, per motivi di sicurezza, è stato utilizzato l’azoto liquido (LN2), liquido con caratteristiche criogeniche simili all’LNG, ma non reattivo. Analisi preliminari hanno evidenziato come il contributo legato allo scambio termico per conduzione sia quello preponderante per la determinazione del flusso evaporante. Per questo motivo, lo sversamento è stato eseguito su diverse tipologie di substrato, rappresentative dei materiali più comuni e che plausibilmente possano andare a contatto con liquidi criogenici. Nello specifico sono stati valutati i seguenti substrati: ghiaia, sabbia, terreno secco, terreno umido e cemento. In seguito, è stato valutato il profilo di massa, velocità di evaporazione e temperatura rispetto al tempo per comprendere la durata della fase evaporativa e i principali fenomeni coinvolti. La velocità media e massima di evaporazione è risultata fortemente influenzata dalle proprietà fisiche del substrato e dalla presenza di acqua al suo interno.I dati raccolti rappresentano un passo in avanti fondamentale per la caratterizzazione del comportamento dei liquidi criogenici in atmosfera, favorendo la progettazione di tecnologie e procedure opportune per il loro utilizzo in sicurezza.
Resumo:
L’anisotropia magnetica di film sottili ferromagnetici è un parametro fondamentale nel campo della spintronica. Recenti lavori hanno dimostrato che la formazione di un’interfaccia tra film sottili ferromagnetici e materiali organici è in grado di modificare, l’anisotropia magnetica del costituente inorganico. Questa specifica interfaccia è stata definita spinterface ed è di grande interesse in un’ottica di ingegnerizzazione delle proprietà magnetiche di dispositivi spintronici. Pertanto, in questo lavoro di tesi ho analizzato l’anisotropia magnetica di un film policristallino di Cobalto ricoperto da una molecola organica largamente utilizzata in dispositivi spintronici e optoelettronici, la Gallio-chinolina (Gaq3), con l’obiettivo di verificare il ruolo della molecola nella definizione delle proprietà magnetiche dello strato di Cobalto. Per valutare l’impatto della formazione di spinterface, ho confrontato i risultati sperimentali con quelli ottenuti per un bistrato di riferimento Cobalto/Alluminio (Co/Al). Per comprendere i risultati sperimentali introdurrò nel primo capitolo i concetti fondamentali del magnetismo di film sottili, in particolare i vari contributi di anisotropia magnetica, il concetto di dominio magnetico e il modello di Stoner Wohlfarth. Il secondo capitolo verrà dedicato alla descrizione del concetto di spinterface e come questa interfaccia possa modificare le proprietà magnetiche dei film sottili. Nel terzo capitolo verranno descritte le tecniche di deposizione in Ultra Alto Vuoto con cui sono stati realizzati i bistrati Co/Gaq3 e Co/Al mentre nel quarto capitolo descriver`o il funzionamento del magnetometro MOKE, lo strumento con cui ho studiato l’anisotropia magnetica dei campioni prodotti. I dati sperimentali e la loro discussione saranno presentati nel quinto capitolo dove ho verificato la presenza di effetti di spinterface attraverso l’osservazione di un aumento della coercitività del campione Co/Gaq3.
Resumo:
Alcuni cambiamenti demografici, come l’aumento dell’età media della popolazione, stanno spingendo il mondo sanitario ad innovarsi. In questo contesto, emergono i servizi abilitati da tecnologia che assicurano alcuni vantaggi essenziali per raggiungere un’assistenza sanitaria centrata sulle persone. Per progettare soluzioni tecnologiche innovative che stiano al passo con i cambiamenti, viene proposto l’approccio del service design. In particolare si presenta la CeHRes Roadmap che, attraverso sei steps iterativi, guida il team di progettazione dall’analisi del contesto alla realizzazione di una soluzione che soddisfi i bisogni degli stakeholder. Le prime tre fasi di tale metodologia sono state applicate ad un caso studio reale, quello dell’Ospedale Maggiore di Parma. In particolare, si è progettata una soluzione che rende più efficiente la presa in carico dei pazienti che necessitano di una visita specialistica urgente. Lo strumento di analisi preponderante sono state le interviste agli stakeholder dalle quali sono stati raccolti dati qualitativi grezzi. Dall’analisi e rielaborazione di questi ultimi, sono stati estrapolati i bisogni degli attori chiave in ottica di una visione orientata alle persone. Successivamente si è proposto il pretotipo di una soluzione che, a seguito di test con gli utilizzatori, è stato modificato sulla base dei loro feedback. Il prodotto finale del progetto è un pretotipo finale che rispetta tutti i requisiti emersi nel corso dell’intero processo di progettazione. Tuttavia, la CeHRes Roadmap, si concentra solo sulle relazioni diadiche tra stakeholder. Per questo il lavoro è stato approfondito in ottica multi-stakeholder con l’applicazione del Service Design For Value Network, una metodologia che pone l’accento sulle relazioni molti-a-molti. L’elaborato si conclude con la definizione degli steps futuri da percorrere per la realizzazione del pretotipo proposto, portando a termine la CeHRes Roadmap.
Resumo:
Background: l’intervento di artroprotesi inversa di spalla sta assumendo sempre più importanza all’interno dell’approccio chirurgico della spalla. Il Concetto Bobath viene somministrato solitamente a pazienti con problematiche neurologiche centrali (es. ictus), ma si è visto molto efficace nel ristabilire un’importante stabilità scapolare a livello dell’arto superiore. Obiettivo: valutare il dolore e la funzionalità di spalla in persone con protesi inversa di spalla in seguito ad un percorso riabilitativo implementato da tecniche appartenenti al Concetto Bobath. Metodi: sono stati selezionati tre soggetti (3 F) di et. media di 74 anni sottoposti ad intervento di artroprotesi inversa di spalla e successivamente a trattamento riabilitativo con tecniche appartenenti al Concetto Bobath. I soggetti partecipanti sono stati valutati durante e alla fine del percorso riabilitativo attraverso l’utilizzo della scala NRS per il dolore, mentre per la funzionalità di spalla la UCLA Shoulder Scale), la Constant-Murley Scale e la DASH. I limiti presenti in questo studio sono attribuibili sia al fatto che nelle banche dati sono assenti studi che riguardano lo stesso argomento, sia al fatto che il numero di pazienti entrati a far parte dello studio è molto limitato sia per le complicanze durante il trattamento o l’interruzione del trattamento in alcuni pazienti. Risultati: al termine della sperimentazione, tutti i soggetti hanno presentato un miglioramento delle misure di outcome. Un importante miglioramento si è notato nella stabilità scapolare, nei compensi muscolari e nel dolore. I risultati sono stati poi confrontati con gli outcome di pazienti trattati secondo protocolli standardizzati, appartenenti a studi presenti all’interno delle banche dati. Conclusioni: l’utilizzo di tecniche appartenenti al Concetto Bobath sembra essere efficace in pazienti sottoposti ad artroprotesi inversa di spalla. Tuttavia, sono necessari ulteriori studi per verificarne gli effettivi effetti.
Resumo:
L’obesità ad oggi è considerata un’epidemia globale ed è tutt’ora in rapido aumento insieme a tutte le comorbidità ad essa associate. Il gold standard per il trattamento di questa patologia è la terapia dietetico-comportamentale. Tuttavia, essa frequentemente si rivela non sufficiente nei quadri di obesità severa; in questo caso è possibile valutare la farmacoterapia, seppur sempre accostata alle indicazioni alimentari. Un’altra opzione è la chirurgia bariatrica, ritenuta una delle più efficaci forme di terapia per la cura dell’obesità severa. Molto importante per l’inquadramento clinico del paziente è la rilevazione delle abitudini alimentari, eseguita tramite diversi strumenti, quali l’Indagine Alimentare, il Recall delle 24 ore e il Diario Alimentare. Recentemente sono stati formulati diversi Food Frequency Questionnaires, ovvero questionari compilati direttamente del paziente con l’obiettivo di indagare sul consumo abituale dei principali prodotti alimentari suddivisi in categorie. Obiettivo: l’obiettivo di questo studio è stato quello di valutare l’appropriatezza di un Food Frequency Questionnaire composto da un totale di 7 categorie e 31 prodotti alimentari nella rilevazione delle abitudini di una popolazione di pazienti con diagnosi di obesità. Metodo: sono stati contattati telefonicamente 70 pazienti, suddivisi in due sottogruppi, ai quali sono state fornite istruzioni per la compilazione di un Diario Alimentare di tre giorni e del Food Frequency Questionnaire. Risultati: è stata considerata accettabile una differenza inferiore al 10% tra i valori derivanti dai due strumenti: su un campione totale di 52 pazienti, tale differenza è stata rilevata in 35 soggetti per quanto riguarda l’intake energetico, in 17 pazienti per i glucidi, in 7 partecipanti per l’apporto di proteine e in 13 casi per i lipidi. Conclusioni: i risultati confermano l’ipotesi che il Food Frequency Questionnaire fornisca valutazioni sovrapponibili a quelle derivanti dal Diario Alimentare.
Resumo:
Il lavoro di tesi presentato è nato da una collaborazione con il Politecnico di Macao, i referenti sono: Prof. Rita Tse, Prof. Marcus Im e Prof. Su-Kit Tang. L'obiettivo consiste nella creazione di un modello di traduzione automatica italiano-cinese e nell'osservarne il comportamento, al fine di determinare se sia o meno possibile l'impresa. Il trattato approfondisce l'argomento noto come Neural Language Processing (NLP), rientrando dunque nell'ambito delle traduzioni automatiche. Sono servizi che, attraverso l'ausilio dell'intelligenza artificiale sono in grado di elaborare il linguaggio naturale, per poi interpretarlo e tradurlo. NLP è una branca dell'informatica che unisce: computer science, intelligenza artificiale e studio di lingue. Dal punto di vista della ricerca, le più grandi sfide in questo ambito coinvolgono: il riconoscimento vocale (speech-recognition), comprensione del testo (natural-language understanding) e infine la generazione automatica di testo (natural-language generation). Lo stato dell'arte attuale è stato definito dall'articolo "Attention is all you need" \cite{vaswani2017attention}, presentato nel 2017 a partire da una collaborazione di ricercatori della Cornell University.\\ I modelli di traduzione automatica più noti ed utilizzati al momento sono i Neural Machine Translators (NMT), ovvero modelli che attraverso le reti neurali artificiali profonde, sono in grado effettuare traduzioni o predizioni. La qualità delle traduzioni è particolarmente buona, tanto da arrivare quasi a raggiungere la qualità di una traduzione umana. Il lavoro infatti si concentrerà largamente sullo studio e utilizzo di NMT, allo scopo di proporre un modello funzionale e che sia in grado di performare al meglio nelle traduzioni da italiano a cinese e viceversa.
Resumo:
A recent integral-field spectroscopic (IFS) survey, the MASSIVE survey (Ma et al. 2014), observed the 116 most massive (MK < −25.3 mag, stellar mass M∗ > 10^11.6 M⊙) early-type galaxies (ETGs) within 108 Mpc, out to radii as large as 40 kpc, that correspond to ∼ 2 − 3 effective radii (Re). One of the major findings of the MASSIVE survey is that the galaxy sample is split nearly equally among three groups showing three different velocity dispersion profiles σ(R) outer of a radius ∼ 5 kpc (falling, flat and rising with radius). The purpose of this thesis is to model the kinematic profiles of six ETGs included in the MASSIVE survey and representative of the three observed σ(R) shapes, with the aim of investigating their dynamical structure. Models for the chosen galaxies are built using the numerical code JASMINE (Posacki, Pellegrini, and Ciotti 2013). The code produces models of axisymmetric galaxies, based on the solution of the Jeans equations for a multicomponent gravitational potential (supermassive black hole, stars and dark matter halo). With the aim of having a good agreement between the kinematics obtained from the Jeans equations, and the observed σ and rotation velocity V of MASSIVE (Veale et al. 2016, 2018), I derived constraints on the dark matter distribution and orbital anisotropy. This work suggests a trend of the dark matter amount and distribution with the shape of the velocity dispersion profiles in the outer regions: the models of galaxies with flat or rising velocity dispersion profiles show higher dark matter fractions fDM both within 1 Re and 5 Re. Orbital anisotropy alone cannot account for the different observed trends of σ(R) and has a minor effect compared to variations of the mass profile. Galaxies with similar stellar mass M∗ that show different velocity dispersion profiles (from falling to rising) are successfully modelled with a variation of the halo mass Mh.
Resumo:
In questo lavoro di tesi viene presentato e validato un modello di rischio di alluvione a complessità intermedia per scenari climatici futuri. Questo modello appartiene a quella categoria di strumenti che mirano a soddisfare le esigenze identificate dal World Climate Research Program (WRCP) per affrontare gli effetti del cambiamento climatico. L'obiettivo perseguito è quello di sviluppare, seguendo un approccio ``bottom-up" al rischio climatico regionale, strumenti che possano aiutare i decisori a realizzare l'adattamento ai cambiamenti climatici. Il modello qui presentato è interamente basato su dati open-source forniti dai servizi Copernicus. Il contributo di questo lavoro di tesi riguarda lo sviluppo di un modello, formulato da (Ruggieri et al.), per stimare i danni di eventi alluvionali fluviali per specifici i livelli di riscaldamento globale (GWL). Il modello è stato testato su tre bacini idrografici di medie dimensioni in Emilia-Romagna, Panaro, Reno e Secchia. In questo lavoro, il modello viene sottoposto a test di sensibilità rispetto a un'ipotesi enunciata nella formulazione del modello, poi vengono effettuate analisi relative all'ensemble multi-modello utilizzato per le proiezioni. Il modello viene quindi validato, confrontando i danni stimati nel clima attuale per i tre fiumi con i danni osservati e confrontando le portate simulate con quelle osservate. Infine, vengono stimati i danni associati agli eventi alluvionali in tre scenari climatici futuri caratterizzati da GWL di 1.5° C, 2.0° C e 3.0°C.
Resumo:
L'erogazione dei servizi informatici tramite cloud è ormai una delle soluzioni più in voga nel mercato odierno, tant'è che, analizzando le statistiche fornite dalle piattaforme principali, anche il futuro sembra andare proprio in quella direzione. Quest'evoluzione avrà un forte impatto persino nelle telecomunicazioni, dove le tecniche di virtualizzazione e softwarizzazione vengono già oggi impiegate per facilitare la gestione delle infrastrutture di rete, creando le cosiddette SDN (Software Defined Network). I provider che scelgono di adottare queste soluzioni ottengono un elevato grado di flessibilità dei propri servizi, facilitando notevolmente lo sviluppo di nuove funzionalità, grazie alla presenza di controller esterni a cui vengono demandati gli aspetti di gestione della rete stessa. In uno scenario di questo tipo è fondamentale che gli strumenti volti allo studio e alla sperimentazione di reti software-based siano in grado di stare al passo con i tempi, utilizzando tecnologie all'avanguardia ed accessibili anche agli utenti che si interfacciano per la prima volta con queste metodologie. Perché questo sia possibile è necessario che telecomunicazioni e sviluppo software, aspetti storicamente appartenenti a due mondi dell'informatica paralleli, si uniscano. Ad oggi gli strumenti che permettono di operare su SDN sono innumerevoli, ma spesso accomunati dalla mancanza di qualsivoglia interfaccia grafica, restringendo l'utenza di riferimento ad un gruppo ancor più di nicchia, escludendo gli utilizzatori alle prime armi. L'obiettivo di questo progetto è proporre uno strumento alternativo, basato su Ryu, che permetta all’utente di creare, configurare e gestire secondo le proprie esigenze una rete virtuale, attraverso un’interfaccia grafica e un simulatore interattivo per controllare e visualizzare lo stato dei dispositivi connessi. Infine, verranno analizzati i vantaggi didattici ottenuti dall'impiego dell'applicativo rispetto alle metodologie classiche.
Resumo:
L’objectiu de la recerca és, mitjançant l’anàlisi dels documents de treball elaborats en el període 2000-2007 pel Govern xinès, aïllar elements ideòlogics per poder respondre a la qüestió de si el pensament tradicional xinès és prou rellevant en les propostes polítiques i en l’activitat de la quarta generació de dirigents comunistes com perquè els principis confucians es puguin considerar peça essencial del pla integral del PCX de “construir el socialisme amb característiques xineses”, dins del qual, el compromís del president Hu Jintao de “construir una societat harmònica socialista” ha adquirit el rang més alt en la jerarquia de principis estratègics.
Resumo:
El trabajo que presentamos pretende ser una revisión exhaustiva en torno a uno de los ámbitos que más atención han acaparado dentro de los estudios de traducción: el de las técnicas, estrategias y procedimientos. Este línea de investigación, inaugurada en 1957 por Vinay & Darbelent y sus siete procedimientos técnicos de traducción (préstamo, calco, traducción literal, transposición, modulación, equivalencia y adaptación), se ha visto perpetuada e incluso ampliada por una larga tradición de estudios de índoles muy diversas pero con un denominador común: el interés por averiguar y describir lo que sucede durante el proceso de traducción.
Resumo:
El presente informe es la memoria final de la beca FI que recoge la mayor parte (años 2006-2009) de la investigación realizada en el marco de nuestra tesis doctoral. Se sitúa en el ámbito de la traductología e incorpora elementos conceptuales de la sociología del trabajo y de la organización de empresas. Trata sobre el contenido del trabajo y sus componentes, propios de los puestos de trabajo internos en las empresas de traducción. En la parte conceptual, enfocamos dicho contenido dentro del contexto organizativo de la empresa, dentro del contexto situacional del trabajo real y dentro del contexto del proceso de trabajo que se desarrolla en cada empresa de traducción, cuyo propósito final es producir un servicio de traducción. Además, identificamos la dimensión organizativa e individual del contenido del trabajo. En la parte empírica, analizamos datos procedentes de cuatro empresas de traducción del norte de Francia (fase exploratoria) y de diez empresas situadas en la ciudad de Barcelona (estudio empírico definitivo). Los datos han sido obtenidos mediante entrevistas y observación directa (datos primarios) y mediante los informes de alumnos de prácticas (datos secundarios). Puesto que actualmente (enero de 2010) nos encontramos en la fase del análisis del material empírico recogido, el informe concluye con un primer esbozo de los principales componentes del contenido del trabajo, identificados por nosotros en las empresas de traducción estudiadas. Esperamos ofrecer las conclusiones completas en nuestra tesis doctoral, a punto de finalizar.