1000 resultados para Kinnunen, Essi


Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'articolo presenta i risultati di una ricerca comparativa tra bambini di 4 e 5 anni appartenenti a due contesti linguistici diversi circa il fenomeno delle alternanze grafo-foniche. Nell'indagine è stato richiesto a 60 bambini (30 argentini e 30 italiani) di scrivere sotto dettatura dell'adulto uno stesso elenco di parole, prima in forma manoscritta e poi con l'uso del pc; e successivamente di confrontare le due versioni. In questo modo è stato possibile cogliere le diverse modalità di risoluzione dei problemi legati alla scrittura degli stessi segmenti sillabici: dall?utilizzo di modalità più stabili, come l?identità totale, ad altre più instabili, come le alternanze. Come già indagato nella lingua spagnola, nei diversi livelli di concettualizzazione, in entrambe le lingue sono state individuate alternanze grafo-foniche molto simili per frequenza e percentuali. Questo fenomeno ci offre maggiori informazioni sulle conoscenze che i bambini possiedono rispetto al sistema di scrittura, poiché riflette il modo in cui essi esplorano e introducono i valori sonori convenzionali, soprattutto nel livello sillabico di concettualizzazione. I risultati indicano, inoltre, che la presenza e l?uso della tastiera del pc non incide in modo significativo sulla maggiore varietà o quantità (numero) di grafemi utilizzati nella produzione digitale rispetto a quella manuale

Relevância:

10.00% 10.00%

Publicador:

Resumo:

La diagnosi di neoplasia epiteliale maligna polmonare è legata tradizionalmente alla distinzione tra carcinoma a piccole cellule (small-cell lung cancer, SCLC) e carcinoma non-a piccole cellule del polmone (non-small-cell lung cancer, NSCLC). Nell’ambito del NSCLC attualmente è importante di-stinguere l’esatto istotipo (adenocarcinoma, carcinoma squamocellulare e carcinoma neuroendocrino) perchè l’approccio terapeutico cambia a seconda dell’istotipo del tumore e la chemioterapia si dimostra molto spesso inefficace. Attualmente alcuni nuovi farmaci a bersaglio molecolare per il gene EGFR, come Erlotinib e Gefitinib, sono utilizzati per i pazienti refrattari al trattamento chemioterapico tradizionale, che non hanno risposto a uno o più cicli di chemioterapia o che siano progrediti dopo questa. I test per la rilevazione di specifiche mutazioni nel gene EGFR permettono di utilizzare al meglio questi nuovi farmaci, applicandoli anche nella prima linea di trattamento sui pazienti che hanno una maggiore probabilità di risposta alla terapia. Sfortunatamente, non tutti i pazienti rispondono allo stesso modo quando trattati con farmaci anti-EGFR. Di conseguenza, l'individuazione di biomarcatori predittivi di risposta alla terapia sarebbe di notevole importanza per aumentare l'efficacia dei questi farmaci a target molecolare e trattare con farmaci diversi i pazienti che con elevata probabilità non risponderebbero ad essi. I miRNAs sono piccole molecole di RNA endogene, a singolo filamento di 20-22 nucleotidi che svolgono diverse funzioni, una delle più importanti è la regolazione dell’espressione genica. I miRNAs possono determinare una repressione dell'espressione genica in due modi: 1-legandosi a sequenze target di mRNA, causando così un silenziamento del gene (mancata traduzione in proteina), 2- causando la degradazione dello specifico mRNA. Lo scopo della ricerca era di individuare biomarcatori capaci di identificare precocemente i soggetti in grado di rispondere alla terapia con Erlotinib, aumentando così l'efficacia del farmaco ed evitan-do/riducendo possibili fenomeni di tossicità e il trattamento di pazienti che probabilmente non ri-sponderebbero alla terapia offrendo loro altre opzioni prima possibile. In particolare, il lavoro si è fo-calizzato sul determinare se esistesse una correlazione tra la risposta all'Erlotinib ed i livelli di espressione di miRNAs coinvolti nella via di segnalazione di EGFR in campioni di NSCLC prima dell’inizio della terapia. Sono stati identificati 7 microRNA coinvolti nel pathway di EGFR: miR-7, -21, 128b, 133a, -133b, 146a, 146b. Sono stati analizzati i livelli di espressione dei miRNA mediante Real-Time q-PCR in campioni di NSCLC in una coorte di pazienti con NSCLC metastatico trattati con Erlotinib dal 1° gennaio 2009 al 31 dicembre 2014 in 2°-3° linea dopo fallimento di almeno un ciclo di chemioterapia. I pazienti sottoposti a trattamento con erlotinib per almeno 6 mesi senza presentare progressione alla malattia sono stati definiti “responders” (n=8), gli altri “non-responders” (n=25). I risultati hanno mostrato che miR-7, -133b e -146a potrebbero essere coinvolti nella risposta al trat-tamento con Erlotinib. Le indagini funzionali sono state quindi concentrate su miR-133b, che ha mo-strato la maggiore espressione differenziale tra i due gruppi di pazienti. E 'stata quindi studiata la capacità di miR-133b di regolare l'espressione di EGFR in due linee di cellule del cancro del polmone (A549 e H1299). Sono stati determinati gli effetti di miR-133b sulla crescita cellulare. E’ stato anche analizzato il rapporto tra miR-133b e sensibilità a Erlotinib nelle cellule NSCLC. L'aumento di espressione di miR-133b ha portato ad una down-regolazione del recettore di EGF e del pathway di EGFR relativo alla linea cellulare A549. La linea cellulare H1299 era meno sensibili al miR-133b up-regulation, probabilmente a causa dell'esistenza di possibili meccanismi di resistenza e/o di com-pensazione. La combinazione di miR-133b ed Erlotinib ha aumentato l'efficacia del trattamento solo nella linea cellulare A549. Nel complesso, questi risultati indicano che miR-133b potrebbe aumentare / ripristinare la sensibilità di Erlotinib in una frazione di pazienti.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi anni i modelli VAR sono diventati il principale strumento econometrico per verificare se può esistere una relazione tra le variabili e per valutare gli effetti delle politiche economiche. Questa tesi studia tre diversi approcci di identificazione a partire dai modelli VAR in forma ridotta (tra cui periodo di campionamento, set di variabili endogene, termini deterministici). Usiamo nel caso di modelli VAR il test di Causalità di Granger per verificare la capacità di una variabile di prevedere un altra, nel caso di cointegrazione usiamo modelli VECM per stimare congiuntamente i coefficienti di lungo periodo ed i coefficienti di breve periodo e nel caso di piccoli set di dati e problemi di overfitting usiamo modelli VAR bayesiani con funzioni di risposta di impulso e decomposizione della varianza, per analizzare l'effetto degli shock sulle variabili macroeconomiche. A tale scopo, gli studi empirici sono effettuati utilizzando serie storiche di dati specifici e formulando diverse ipotesi. Sono stati utilizzati tre modelli VAR: in primis per studiare le decisioni di politica monetaria e discriminare tra le varie teorie post-keynesiane sulla politica monetaria ed in particolare sulla cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015) e regola del GDP nominale in Area Euro (paper 1); secondo per estendere l'evidenza dell'ipotesi di endogeneità della moneta valutando gli effetti della cartolarizzazione delle banche sul meccanismo di trasmissione della politica monetaria negli Stati Uniti (paper 2); terzo per valutare gli effetti dell'invecchiamento sulla spesa sanitaria in Italia in termini di implicazioni di politiche economiche (paper 3). La tesi è introdotta dal capitolo 1 in cui si delinea il contesto, la motivazione e lo scopo di questa ricerca, mentre la struttura e la sintesi, così come i principali risultati, sono descritti nei rimanenti capitoli. Nel capitolo 2 sono esaminati, utilizzando un modello VAR in differenze prime con dati trimestrali della zona Euro, se le decisioni in materia di politica monetaria possono essere interpretate in termini di una "regola di politica monetaria", con specifico riferimento alla cosiddetta "nominal GDP targeting rule" (McCallum 1988 Hall e Mankiw 1994; Woodford 2012). I risultati evidenziano una relazione causale che va dallo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo alle variazioni dei tassi di interesse di mercato a tre mesi. La stessa analisi non sembra confermare l'esistenza di una relazione causale significativa inversa dalla variazione del tasso di interesse di mercato allo scostamento tra i tassi di crescita del PIL nominale e PIL obiettivo. Risultati simili sono stati ottenuti sostituendo il tasso di interesse di mercato con il tasso di interesse di rifinanziamento della BCE. Questa conferma di una sola delle due direzioni di causalità non supporta un'interpretazione della politica monetaria basata sulla nominal GDP targeting rule e dà adito a dubbi in termini più generali per l'applicabilità della regola di Taylor e tutte le regole convenzionali della politica monetaria per il caso in questione. I risultati appaiono invece essere più in linea con altri approcci possibili, come quelli basati su alcune analisi post-keynesiane e marxiste della teoria monetaria e più in particolare la cosiddetta "regola di solvibilità" (Brancaccio e Fontana 2013, 2015). Queste linee di ricerca contestano la tesi semplicistica che l'ambito della politica monetaria consiste nella stabilizzazione dell'inflazione, del PIL reale o del reddito nominale intorno ad un livello "naturale equilibrio". Piuttosto, essi suggeriscono che le banche centrali in realtà seguono uno scopo più complesso, che è il regolamento del sistema finanziario, con particolare riferimento ai rapporti tra creditori e debitori e la relativa solvibilità delle unità economiche. Il capitolo 3 analizza l’offerta di prestiti considerando l’endogeneità della moneta derivante dall'attività di cartolarizzazione delle banche nel corso del periodo 1999-2012. Anche se gran parte della letteratura indaga sulla endogenità dell'offerta di moneta, questo approccio è stato adottato raramente per indagare la endogeneità della moneta nel breve e lungo termine con uno studio degli Stati Uniti durante le due crisi principali: scoppio della bolla dot-com (1998-1999) e la crisi dei mutui sub-prime (2008-2009). In particolare, si considerano gli effetti dell'innovazione finanziaria sul canale dei prestiti utilizzando la serie dei prestiti aggiustata per la cartolarizzazione al fine di verificare se il sistema bancario americano è stimolato a ricercare fonti più economiche di finanziamento come la cartolarizzazione, in caso di politica monetaria restrittiva (Altunbas et al., 2009). L'analisi si basa sull'aggregato monetario M1 ed M2. Utilizzando modelli VECM, esaminiamo una relazione di lungo periodo tra le variabili in livello e valutiamo gli effetti dell’offerta di moneta analizzando quanto la politica monetaria influisce sulle deviazioni di breve periodo dalla relazione di lungo periodo. I risultati mostrano che la cartolarizzazione influenza l'impatto dei prestiti su M1 ed M2. Ciò implica che l'offerta di moneta è endogena confermando l'approccio strutturalista ed evidenziando che gli agenti economici sono motivati ad aumentare la cartolarizzazione per una preventiva copertura contro shock di politica monetaria. Il capitolo 4 indaga il rapporto tra spesa pro capite sanitaria, PIL pro capite, indice di vecchiaia ed aspettativa di vita in Italia nel periodo 1990-2013, utilizzando i modelli VAR bayesiani e dati annuali estratti dalla banca dati OCSE ed Eurostat. Le funzioni di risposta d'impulso e la scomposizione della varianza evidenziano una relazione positiva: dal PIL pro capite alla spesa pro capite sanitaria, dalla speranza di vita alla spesa sanitaria, e dall'indice di invecchiamento alla spesa pro capite sanitaria. L'impatto dell'invecchiamento sulla spesa sanitaria è più significativo rispetto alle altre variabili. Nel complesso, i nostri risultati suggeriscono che le disabilità strettamente connesse all'invecchiamento possono essere il driver principale della spesa sanitaria nel breve-medio periodo. Una buona gestione della sanità contribuisce a migliorare il benessere del paziente, senza aumentare la spesa sanitaria totale. Tuttavia, le politiche che migliorano lo stato di salute delle persone anziane potrebbe essere necessarie per una più bassa domanda pro capite dei servizi sanitari e sociali.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Le formiche svolgono un importante ruolo all’interno degli ecosistemi ed alcune specie sono considerate keystone in quanto in grado di modificare la componente biotica e/o abiotica dell’ecosistema stesso. Sono animali ubiquitari che hanno colonizzato molteplici ambienti, compresi gli agroecosistemi. Negli agroecosistemi spesso svolgono un ruolo impattante determinando la diffusione o il regresso di specie di artropodi, alcune delle quali dannose alle colture. La presente ricerca tiene conto di un’ampia visione dei rapporti ecoetologici intercorrenti tra le formiche e la componente biotica di un ecosistema, utilizzando il concetto di rete multitrofica. In quest’ottica, si è pensato di costruire un sistema multitrofico costituito da una specie vegetale di interesse agrario (Cucumis sativus), dai suoi fitofagi naturali, divisi in fitomizi (afidi) (Aphis gossypii e Myzus persicae) e fitofagi masticatori (bruchi del lepidottero Mamestra brassicae), formiche (Formica pratensis) e predatori afidofagi (Aphidolets aphidimyza). Il sistema multitrofico è stato utilizzato sia per studiare l’aggressività delle formiche, sia per verificare l’esistenza di una comunicazione interspecifica tra le formiche e le piante (allelochimici). Gli studi sull’aggressività sono consistiti nel: • Verificare il livello di aggressività delle formiche nei confronti di un fitofago masticatore, competitore degli afidi nello sfruttare la pianta ospite. • Verificare se la presenza di afidi mutualisti fa variare il livello di aggressività delle formiche verso il competitore. • Verificare se esiste aggressività verso un predatore di afidi, i quali, secondo il paradigma della trofobiosi, dovrebbero essere difesi dalle formiche in cambio della melata. • Verificare se il predatore ha evoluto strategie volte ad eludere il controllo delle formiche sugli insetti che si approcciano alla colonia di afidi. Gli studi sui rapporti piante-formiche sono stati effettuati mediante olfattometro, osservando la risposta delle formiche alle sostanze volatili provenienti da piante infestate in modo differente con i fitofagi del sistema. Attraverso il trappolaggio e l’analisi gas-cromatografica delle sostanze prodotte dalle piante oggetto di studio abbiamo quindi individuato tipo e quantità di ogni composto volatile. Oltre alle piante di cetriolo, per questi esperimenti sono state utilizzate anche piante di patata (Solanum tuberosum). Dagli esperimenti sull’aggressività è risultato che le formiche manifestano un elevato potenziale predatorio, eradicando completamente la presenza dei bruchi sulle piante. Questo livello di aggressività tuttavia non cresce con la presenza degli afidi mutualisti che dovrebbero essere difesi dai competitori. Le formiche inoltre non sono in grado di sopprimere i predatori afidofagi che ipotizziamo riescano ad effettuare un camuffamento chimico, assumendo gli odori degli afidi dei quali si nutrono. I risultati degli esperimenti in olfattometro mostrano una chiara risposta positiva delle formiche verso gli odori di alcune delle piante infestate. Vi sono delle differenze nella risposta in funzione della specie di fitofago presente e della specie di pianta utilizzata. Nei trattamenti in cui erano presenti le piante di C. sativus, gli esperimenti in olfattometro hanno mostrato che le formiche rispondono in modo significativo agli odori emessi dalle piante in cui vi era la presenza del fitofago masticatore M. brassicae, solo o in associazione con A. gossypii. La presenza dei soli afidi, sia mutualisti (A. gossypii) sia non mutualisti (M. persicae), non ha invece indotto una risposta significativa nelle formiche rispetto agli odori delle piante non infestate. Nei trattamenti in cui erano presenti le piante di S. tuberosum la scelta delle formiche è stata significativa verso gli odori emessi dalle piante infestate con ciascuna delle singole specie di erbivori rispetto alle piante non infestate. Gli esperimenti sull’analisi delle sostanze volatili emesse dalle piante hanno confermato che gli organismi vegetali sono una vera centrale di produzione biochimica, infatti ben 91 composti volatili diversi sono stati individuati dall’analisi gas-cromatografica delle piante di cetriolo e 85 in quelle di patata. Dalle elaborazioni effettuate, rispettivamente 27 e 4 di essi sono prodotti esclusivamente dalle piante attaccate dai fitofagi. In generale, il cambiamento più consistente è dato dalla quantità di alcune sostanze volatili emesse dalle piante infestate rispetto a quelle integre che determina un cambiamento nei rapporti tra le sostanze che compongono i volatiles. E’ probabile che l’effetto attrattivo esercitato sulle formiche sia dato da un Blend di sostanze più che dai singoli composti presenti

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Negli ultimi decenni, le tecnologie e i prodotti informatici sono diventati pervasivi e sono ora una parte essenziale delle nostre vite. Ogni giorno ci influenzano in maniera più o meno esplicita, cambiando il nostro modo di vivere e i nostri comportamenti più o meno intenzionalmente. Tuttavia, i computer non nacquero inizialmente per persuadere: essi furono costruiti per gestire, calcolare, immagazzinare e recuperare dati. Non appena i computer si sono spostati dai laboratori di ricerca alla vita di tutti i giorni, sono però diventati sempre più persuasivi. Questa area di ricerca è chiamata pesuasive technology o captology, anche definita come lo studio dei sistemi informatici interattivi progettati per cambiare le attitudini e le abitudini delle persone. Nonostante il successo crescente delle tecnologie persuasive, sembra esserci una mancanza di framework sia teorici che pratici, che possano aiutare gli sviluppatori di applicazioni mobili a costruire applicazioni in grado di persuadere effettivamente gli utenti finali. Tuttavia, il lavoro condotto dal Professor Helal e dal Professor Lee al Persuasive Laboratory all’interno dell’University of Florida tenta di colmare questa lacuna. Infatti, hanno proposto un modello di persuasione semplice ma efficace, il quale può essere usato in maniera intuitiva da ingegneri o specialisti informatici. Inoltre, il Professor Helal e il Professor Lee hanno anche sviluppato Cicero, un middleware per dispositivi Android basato sul loro precedente modello, il quale può essere usato in modo molto semplice e veloce dagli sviluppatori per creare applicazioni persuasive. Il mio lavoro al centro di questa tesi progettuale si concentra sull’analisi del middleware appena descritto e, successivamente, sui miglioramenti e ampliamenti portati ad esso. I più importanti sono una nuova architettura di sensing, una nuova struttura basata sul cloud e un nuovo protocollo che permette di creare applicazioni specifiche per smartwatch.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Al giorno d’oggi quasi tutte le persone possiedono un mezzo motorizzato che utilizzano per spostarsi. Tale operazione, che risulta semplice per una persona, può essere compiuta da un robot o un autoveicolo in modo autonomo? La risposta a questa domanda è si, ma se ad una persona serve solo un po’ di pratica per guidare, questa azione non risulta altrettanto immediata per dei veicoli motorizzati. In soccorso ad essi vi è la Computer Vision, un ramo dell’informatica che, in un certo senso, rende un elaboratore elettronico in grado di percepire l’ambiente circostante, nel modo in cui una persona fa con i propri occhi. Oggi ci concentreremo su due campi della computer vision, lo SLAM o Simultaneous Localization and Mapping, che rende un robot in grado di mappare, attraverso una camera, il mondo in cui si trova ed allo stesso tempo di localizzare, istante per istante, la propria posizione all’interno di esso, e la Plane Detection, che permette di estrapolare i piani presenti all’interno di una data immagine.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nella tesi sono descritte, a valle di una breve disamina normativa, le modalità di contabilizzazione del calore, con particolare riferimento alle tipologie di strumenti ed agli errori di misura ad essi correlati. Viene inoltre analizzata nel dettaglio la normativa tecnica UNI 10200, relativa ai criteri di ripartizione delle spese di climatizzazione invernale ed acqua calda sanitaria negli impianti termici centralizzati. Con la presentazione di un caso di studio viene affrontata l'applicazione della stessa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nel cuore di Bologna c’è un posto che attende silenziosamente di essere scoperto per diventare un’occasione di ripensamento della città. BoOM! (Bologna Ospedale Militare) vuole essere una proposta che riesca a coinvolgere in maniera sostenibile le energie del pubblico e del privato con l’intento di riappropriarsi, da parte della città, di un bene comune dalle grandi potenzialità. Il percorso che si sviluppa all’interno di questa tesi parte analizzando la criticità dei vuoti urbani e alcuni tentativi di risposta sperimentati dalle città nel tentativo di ricrearsi un’identità a partire da essi. Alle diverse esperienze in ambito nazionale e internazionale si è poi passati ad un analisi mirata sulla realtà urbana di Bologna, sia dal punto di vista del tessuto socio-economico, che dal punto di vista delle politiche, delle strategie e dei nuovi strumenti legislativi rivolti alla rigenerazione della città. La proposta progettuale che ne scaturisce si concretizza in una metodologia scandita in tre fasi basata su interventi caratterizzati da una loro temporaneità, inseriti in una visione più ampia che si discosta dalla rigidità e dalla lentezza della pianificazione tradizionale. Utilizzare il progetto stesso come strumento di un’analisi che si sviluppa dinamicamente alla ricerca di nuove vocazioni d’uso e per indagare la possibilità di generare nuove relazioni è l’idea che ha dettato lo sviluppo delle prime due fasi progettuali: l’apertura durante gli eventi e l’apertura permanente. La terza fase, ovvero l’intervento sullo spazio esterno, si configura come risposta operativa alle analisi precedenti e come strumento di rammendo urbano nella rete degli spazi pubblici e della mobilità dolce del centro storico. L’ambizione di BoOM! è quella di essere una scintilla in grado di riattivare e rinnovare le energie di questo vuoto nel cuore di Bologna.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Questa Tesi si occupa di una derivazione di un meccanismo con amplificazione inerziale per lo smorzamento delle vibrazioni, il quale è stato usato come un meccanismo costituente di un oscillatore semplice, ovvero di un modello matematico fondamentale su cui è basata la dinamica strutturale, aumentandogli notevolmente la sua complessità geometrica. Viene studiata la risposta dinamica ottenuta dall’analisi armonica, in quanto lo stesso è soggetto alla forzante passiva. Lo studio del comportamento dinamico ingloba un percorso, il quale parte dalla descrizione matematica dell’equilibrio dinamico, nonché delle condizioni al contorno, tramite l’uso di analisi matriciale delle strutture e del calcolo complesso, e si conclude, derivando le grandezze cinematiche e dinamiche, necessarie affinché si possa determinare, in un modo chiaro e privo di ambiguità, lo stato del sistema dinamico. Il passo successivo risiede nell’analisi analitica e numerica dei risultati ottenuti e anche della visualizzazione grafica ed interpretazione degli stessi. Affinché i risultati possano essere considerati validi, occorre che gli stessi passino la procedura di validazione tramite l’uso degli esempi numerici. Successivamente, i risultati validati vengono confrontati con la stessa tipologia dei risultati derivati per gli oscillatori classici o gli oscillatori di riferimento, il quale comportamento è già noto nell’ambito della dinamica strutturale. La Tesi procede con l’applicazione pratica degli oscillatori per lo smorzamento delle vibrazioni. In particolare si studia la loro capacità di alterare la risposta dinamica complessiva del sistema di cui fanno parte, rispetto al caso in cui la stessa struttura è priva di essi. In fine la Tesi si conclude, mettendo in evidenza i vantaggi e gli svantaggi dell’oscillatore dotato di un meccanismo con amplificazione inerziale rispetto agli altri oscillatori classici.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L’uso di sistemi wearable nell’ambito dell’acquisizione dei segnali biomedici è oggigiorno oggetto di grande interesse. Il loro uso si estende dal monitoraggio di parametri vitali per finalità cliniche al controllo delle dinamiche funzionali del corpo umano nel vivere quotidiano, grazie agli specifici segnali emessi dall’organismo, quali ECG ed EMG. Questa tesi, in particolar modo, riguarda le acquisizioni di segnali EMG, ovvero quelli emessi dalla muscolatura in concomitanza di movimenti, e descrive le modalità con cui essi possono essere acquisiti tramite elettrodi dry ed elettrodi wet. Nello specifico, i risultati ottenuti dai diversi approcci vengono confrontati e viene dimostrato il fatto che vi siano consistenti potenzialità nello sviluppo di sistemi per il riconoscimento di gesti che facciano affidamento sugli elettrodi dry, i quali presentano notevoli vantaggi applicativi rispetto alla controparte di tipo wet, la cui affidabilità in tale ambito è stata ampiamente confermata nel corso degli ultimi anni.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Gli interventi di riqualificazione energetica di un edificio risultano necessari per rispondere alle leggi europee e nazionali che impongono misure sempre più stringenti per limitare le dispersioni termiche degli edifici e per ridurre i consumi energetici. L’utilizzo del software Edilclima ha permesso lo studio e l’analisi delle condizioni pre e post-interventi dell’edificio scolastico G. Marconi sito in Castelfranco Emilia (MO). Per mezzo del modello creato nel software, sono state determinate le dispersioni termiche dell’edificio, sulla base delle quali è stato possibile definire alcuni interventi di efficientamento energetico. Gli interventi considerati sono stati: isolamento delle pareti perimetrali verso l’esterno e verso il terreno, isolamento del sottotetto, sostituzione degli infissi. Gli interventi sono necessari per ottenere un edificio che presenti caratteristiche conformi alle leggi; hanno lo scopo di ridurre l’indice di Prestazione Energetica e i costi per il riscaldamento dell’edificio. Gli indici su cui si è valutata la convenienza degli interventi sono stati: il risparmio in termini di costo annuo per il riscaldamento e il tempo di ritorno dell’investimento (payback time). Sono stati presi in considerazione i casi di interventi singoli e di interventi combinati, il confronto tra essi, in questo caso, definisce gli interventi combinati come maggiormente convenienti rispetto ai parametri presi in considerazione per la valutazione della convenienza. Le valutazioni, inoltre, sono state effettuate in due diversi condizioni: impianto con accensione continua (sul modello delle valutazioni per la Certificazione Energetica) e impianto con accensione intermittente (sul modello delle valutazioni per la Diagnosi energetica). Le due condizioni di prova hanno messo in luce l’importanza della valutazione con impianto intermittente poiché questa rappresenta una condizione più realistica e fornisce una stima più attendibile della convenienza degli interventi.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'articolo presenta i risultati di una ricerca comparativa tra bambini di 4 e 5 anni appartenenti a due contesti linguistici diversi circa il fenomeno delle alternanze grafo-foniche. Nell'indagine è stato richiesto a 60 bambini (30 argentini e 30 italiani) di scrivere sotto dettatura dell'adulto uno stesso elenco di parole, prima in forma manoscritta e poi con l'uso del pc; e successivamente di confrontare le due versioni. In questo modo è stato possibile cogliere le diverse modalità di risoluzione dei problemi legati alla scrittura degli stessi segmenti sillabici: dall?utilizzo di modalità più stabili, come l?identità totale, ad altre più instabili, come le alternanze. Come già indagato nella lingua spagnola, nei diversi livelli di concettualizzazione, in entrambe le lingue sono state individuate alternanze grafo-foniche molto simili per frequenza e percentuali. Questo fenomeno ci offre maggiori informazioni sulle conoscenze che i bambini possiedono rispetto al sistema di scrittura, poiché riflette il modo in cui essi esplorano e introducono i valori sonori convenzionali, soprattutto nel livello sillabico di concettualizzazione. I risultati indicano, inoltre, che la presenza e l?uso della tastiera del pc non incide in modo significativo sulla maggiore varietà o quantità (numero) di grafemi utilizzati nella produzione digitale rispetto a quella manuale

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tomo pirmo, che contiene le Instruzioni proemiali alla dottrina, e la prima parte di essa, che e' la fede. Colla spiegazione del Simbolo degli appostoli .- Tomo secondo, che contiene la seconda parte della dottrina, che e' la speranza: colla spiegazione dell'orazione domenicale, e della salutazione angelica; e la terza parte, che e' la carita: colla spiegazione de' dieci comandamenti .- Tomo terzo, che contiene la quarta parte della dottrina, che sono i sette sacramenti della S. Chiesa: colla spiegazione d'essi. E un'appendice delle virtu', e opere buone, e de' vizj, e peccati. Coll'aggiunta d'una nuova istruzione dell'infanzia del Bambino Gesu ...

Relevância:

10.00% 10.00%

Publicador:

Resumo:

L'articolo presenta i risultati di una ricerca comparativa tra bambini di 4 e 5 anni appartenenti a due contesti linguistici diversi circa il fenomeno delle alternanze grafo-foniche. Nell'indagine è stato richiesto a 60 bambini (30 argentini e 30 italiani) di scrivere sotto dettatura dell'adulto uno stesso elenco di parole, prima in forma manoscritta e poi con l'uso del pc; e successivamente di confrontare le due versioni. In questo modo è stato possibile cogliere le diverse modalità di risoluzione dei problemi legati alla scrittura degli stessi segmenti sillabici: dall?utilizzo di modalità più stabili, come l?identità totale, ad altre più instabili, come le alternanze. Come già indagato nella lingua spagnola, nei diversi livelli di concettualizzazione, in entrambe le lingue sono state individuate alternanze grafo-foniche molto simili per frequenza e percentuali. Questo fenomeno ci offre maggiori informazioni sulle conoscenze che i bambini possiedono rispetto al sistema di scrittura, poiché riflette il modo in cui essi esplorano e introducono i valori sonori convenzionali, soprattutto nel livello sillabico di concettualizzazione. I risultati indicano, inoltre, che la presenza e l?uso della tastiera del pc non incide in modo significativo sulla maggiore varietà o quantità (numero) di grafemi utilizzati nella produzione digitale rispetto a quella manuale

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Oggi, i dispositivi portatili sono diventati la forza trainante del mercato consumer e nuove sfide stanno emergendo per aumentarne le prestazioni, pur mantenendo un ragionevole tempo di vita della batteria. Il dominio digitale è la miglior soluzione per realizzare funzioni di elaborazione del segnale, grazie alla scalabilità della tecnologia CMOS, che spinge verso l'integrazione a livello sub-micrometrico. Infatti, la riduzione della tensione di alimentazione introduce limitazioni severe per raggiungere un range dinamico accettabile nel dominio analogico. Minori costi, minore consumo di potenza, maggiore resa e una maggiore riconfigurabilità sono i principali vantaggi dell'elaborazione dei segnali nel dominio digitale. Da più di un decennio, diverse funzioni puramente analogiche sono state spostate nel dominio digitale. Ciò significa che i convertitori analogico-digitali (ADC) stanno diventando i componenti chiave in molti sistemi elettronici. Essi sono, infatti, il ponte tra il mondo digitale e analogico e, di conseguenza, la loro efficienza e la precisione spesso determinano le prestazioni globali del sistema. I convertitori Sigma-Delta sono il blocco chiave come interfaccia in circuiti a segnale-misto ad elevata risoluzione e basso consumo di potenza. I tools di modellazione e simulazione sono strumenti efficaci ed essenziali nel flusso di progettazione. Sebbene le simulazioni a livello transistor danno risultati più precisi ed accurati, questo metodo è estremamente lungo a causa della natura a sovracampionamento di questo tipo di convertitore. Per questo motivo i modelli comportamentali di alto livello del modulatore sono essenziali per il progettista per realizzare simulazioni veloci che consentono di identificare le specifiche necessarie al convertitore per ottenere le prestazioni richieste. Obiettivo di questa tesi è la modellazione del comportamento del modulatore Sigma-Delta, tenendo conto di diverse non idealità come le dinamiche dell'integratore e il suo rumore termico. Risultati di simulazioni a livello transistor e dati sperimentali dimostrano che il modello proposto è preciso ed accurato rispetto alle simulazioni comportamentali.