927 resultados para utilizzo dei sensori multispettrali nel monitoraggio degli incendi, sensore ASTER, telerilevamento
Resumo:
Tra il 2005 e il 2013 la disciplina italiana sulle crisi d’impresa è stata oggetto di varie riforme, che hanno cercato di rafforzare il concordato preventivo, in particolare nella sua funzione di istituto atto a favorire la continuità di aziende in crisi non irreversibile. Anche tenendo conto degli effetti della crisi economica, tali riforme hanno conseguito l’obiettivo di allargare il ricorso al concordato, in particolare a seguito dell’introduzione di quello “in bianco”, che consente di posticipare la presentazione del piano di risanamento. Le riforme hanno anche contribuito a un lieve miglioramento della continuità aziendale. Ciò nonostante, solo una quota limitata di aziende (circa il 4,5 per cento) sopravvive dopo il concordato, la cui funzione principale è rimasta quella di fornire uno strumento liquidatorio di tipo negoziale, alternativo al fallimento che vede un maggior ruolo degli organi giudiziari. Il ricorso al concordato risulta correlato, oltre che con caratteristiche strutturali dell’impresa (un maggior peso delle immobilizzazioni materiali) e delle relazioni creditizie (un minore peso dei crediti dotati di garanzie reali), anche con la durata temporale delle procedure fallimentari nel tribunale di riferimento.
Resumo:
Mode of access: Internet.
Resumo:
RIASSUNTO Premesse: Nonostante l’asma sia stata considerata per anni come un’unica malattia, studi recenti ne dimostrano l’eterogeneità. L’intento di caratterizzare tale eterogeneità ha condotto a studiare molteplici sottogruppi ovvero “fenotipi”. Nell’asma comune questo approccio è stato utilizzato da svariati anni, meno invece nell’asma occupazionale. Poco è noto anche riguardo alle caratteristiche della risposta infiammatoria nel corso dei test di provocazione bronchiale specifici (SIC) con isocianati valutata con metodiche non invasive; in particolare l’origine dell’incremento di ossido nitrico misurato ad un flusso espiratorio di 50 ml/s (FeNO50) precedentemente riscontrato, se sia alveolare o bronchiale, i livelli di dimetilarginina asimmetrica (ADMA) e la temperatura dell’aria espirata (EBT). Scopi dello studio: 1) verificare se anche per l’asma occupazionale (OA) da isocianati siano individuabili dei fenotipi o se essa ne rappresenti uno unico 2) studiare l’infiammazione delle vie aeree sperimentalmente indotta tramite: la misurazione dell’NO frazionato mediante i parametri “flow-independent” che stimano sia la regione alveolare, ovvero la concentrazione di NO alveolare (CaNO), che la regione bronchiale ovvero il flusso di NO a livello bronchiale (JawNO), la concentrazione di NO a livello della parete bronchiale (CawNO) e la diffusione di NO all’interfaccia lume-parete bronchiale (DawNO); la misurazione dell’ADMA nel condensato dell’aria esalata (EBC); la misurazione dell’EBT. Materiali e metodi: Per lo studio sulla fenotipizzazione dell’asma da isocianati sono stati esaminati pazienti risultati positivi al test di provocazione bronchiale specifico con isocianati nel periodo compreso tra il 1988 e il 2013. Mediante l’utilizzo di un approccio multivariato dato dall’analisi gerarchica dei cluster e di un ampio pool di variabili appropriate abbiamo studiato se i soggetti affetti da asma professionale da isocianati rappresentino uno o più cluster. Mediante un altro approccio multivariato, dato dall’analisi delle k-medie, si sono individuate le caratteristiche che differenziano in maniera significativa i soggetti distribuiti nei diversi cluster. Per il secondo scopo dello studio dal 2012 al 2015 abbiamo reclutato soggetti afferiti presso il nostro centro per sospetta asma professionale. In questi pazienti in corso di sham-test e di SIC con isocianati fino a 24 post test sono stati monitorati e misurati: la funzionalità respiratoria incluso il test di provocazione bronchiale aspecifico con metacolina, l’NO frazionato, l’ADMA nell’EBC e l’EBT. Risultati: L’utilizzo dell’analisi gerarchica dei cluster ci ha portati a stabilire che i 187 pazienti studiati non costituiscono un unico gruppo omogeneo ma possono essere suddivisi in 3 cluster. L’applicazione poi del metodo multivariato delle k-medie, su tre cluster, ci ha consentito di individuare due cluster di pazienti sensibilizzati a TDI con prevalente risposta late al SIC e un cluster di pazienti sensibilizzati a MDI con prevalente risposta early al SIC. I soggetti appartenenti ai due cluster dei TDI differiscono fra di loro in maniera significativa per l’età alla diagnosi e all’esordio dei sintomi respiratori, la distribuzione per sesso, il BMI, la distribuzione in quanto abitudine al fumo, l’IT, il FEV1 basale % del predetto, l’età di inizio esposizione, gli anni di latenza e la durata dell’esposizione. Per quanto riguarda invece lo studio del profilo infiammatorio delle vie aeree abbiamo reclutato 25 pazienti, 18 maschi e 7 femmine. Nel gruppo dei SIC-positivi FeNO50 è aumentato significativamente a 24 ore dal test (mediana 111.8 ppb [IQR, 167.5]; p<0.05) se confrontato con lo sham (58.6 ppb [74.7]). I livelli di JawNO hanno manifestato il medesimo time-course con un incremento significativo post 24 ore dall’esposizione (6.6 nL/s [81]; p <0.05) se confrontato con lo sham (3.3 nL/s [3.7]). Non sono state riscontrate significative variazioni negli altri parametri. Non sono state riscontrate significative variazioni dell’ADMA nell’EBC e dell’EBT in entrambi i gruppi. Conclusioni: L’asma da isocianati è una patologia eterogenea come l’asma comune. Gli elementi principali che differenziano i cluster di asma professionale da isocianati sono l’agente sensibilizzante e il tipo di risposta al SIC (cluster 3 vs cluster 1 e 2). Anche nell’ambito dell’asma indotta dallo stesso agente (TDI) si sono evidenziati due cluster in cui quello con peggiore funzionalità respiratoria è rappresentato da soggetti più anziani alla diagnosi e con maggiore durata dell’esposizione. I motivi per cui l’asma occupazionale risulta essere eterogenea possono essere un differente meccanismo d’azione dei monomeri o una diversa suscettibilità degli individui appartenenti ai diversi cluster sia in termini di insorgenza della malattia sia in termini di evoluzione della stessa. L’assetto infiammatorio delle vie aeree nel corso del SIC non si caratterizza nei soggetti sensibilizzati ad isocianati né con un incremento dell’ADMA né con un incremento dell’EBT. Si riscontra invece un aumento di FeNO50 dovuto esclusivamente ad un aumentato flusso di NO dalla parete bronchiale al lume. Abbiamo perciò dimostrato che la misurazione del FeNO50 nel corso del SIC può fornire informazioni aggiuntive al monitoraggio funzionale spirometrico, anche perché la broncoostruzione e la risposta infiammatoria delle vie aeree si sono rivelate dissociate.
Resumo:
Freshwater is extremely precious; but even more precious than freshwater is clean freshwater. From the time that 2/3 of our planet is covered in water, we have contaminated our globe with chemicals that have been used by industrial activities over the last century in a unprecedented way causing harm to humans and wildlife. We have to adopt a new scientific mindset in order to face this problem so to protect this important resource. The Water Framework Directive (European Parliament and the Council, 2000) is a milestone legislative document that transformed the way that water quality monitoring is undertaken across all Member States by introducing the Ecological and Chemical Status. A “good or higher” Ecological Status is expected to be achieved for all waterbodies in Europe by 2015. Yet, most of the European waterbodies, which are determined to be at risk, or of moderate to bad quality, further information will be required so that adequate remediation strategies can be implemented. To date, water quality evaluation is based on five biological components (phytoplankton, macrophytes and benthic algae, macroinvertebrates and fishes) and various hydromorphological and physicochemical elements. The evaluation of the chemical status is principally based on 33 priority substances and on 12 xenobiotics, considered as dangerous for the environment. This approach takes into account only a part of the numerous xenobiotics that can be present in surface waters and could not evidence all the possible causes of ecotoxicological stress that can act in a water section. The mixtures of toxic chemicals may constitute an ecological risk not predictable on the basis of the single component concentration. To improve water quality, sources of contamination and causes of ecological alterations need to be identified. On the other hand, the analysis of the community structure, which is the result of multiple processes, including hydrological constrains and physico-chemical stress, give back only a “photograph” of the actual status of a site without revealing causes and sources of the perturbation. A multidisciplinary approach, able to integrate the information obtained by different methods, such as community structure analysis and eco-genotoxicological studies, could help overcome some of the difficulties in properly identifying the different causes of stress in risk assessment. In synthesis, the river ecological status is the result of a combination of multiple pressures that, for management purposes and quality improvement, have to be disentangled from each other. To reduce actual uncertainty in risk assessment, methods that establish quantitative links between levels of contamination and community alterations are needed. The analysis of macrobenthic invertebrate community structure has been widely used to identify sites subjected to perturbation. Trait-based descriptors of community structure constitute a useful method in ecological risk assessment. The diagnostic capacity of freshwater biomonitoring could be improved by chronic sublethal toxicity testing of water and sediment samples. Requiring an exposure time that covers most of the species’ life cycle, chronic toxicity tests are able to reveal negative effects on life-history traits at contaminant concentrations well below the acute toxicity level. Furthermore, the responses of high-level endpoints (growth, fecundity, mortality) can be integrated in order to evaluate the impact on population’s dynamics, a highly relevant endpoint from the ecological point of view. To gain more accurate information about potential causes and consequences of environmental contamination, the evaluation of adverse effects at physiological, biochemical and genetic level is also needed. The use of different biomarkers and toxicity tests can give information about the sub-lethal and toxic load of environmental compartments. Biomarkers give essential information about the exposure to toxicants, such as endocrine disruptor compounds and genotoxic substances whose negative effects cannot be evidenced by using only high-level toxicological endpoints. The increasing presence of genotoxic pollutants in the environment has caused concern regarding the potential harmful effects of xenobiotics on human health, and interest on the development of new and more sensitive methods for the assessment of mutagenic and cancerogenic risk. Within the WFD, biomarkers and bioassays are regarded as important tools to gain lines of evidence for cause-effect relationship in ecological quality assessment. Despite the scientific community clearly addresses the advantages and necessity of an ecotoxicological approach within the ecological quality assessment, a recent review reports that, more than one decade after the publication of the WFD, only few studies have attempted to integrate ecological water status assessment and biological methods (namely biomarkers or bioassays). None of the fifteen reviewed studies included both biomarkers and bioassays. The integrated approach developed in this PhD Thesis comprises a set of laboratory bioassays (Daphnia magna acute and chronic toxicity tests, Comet Assay and FPG-Comet) newly-developed, modified tacking a cue from standardized existing protocols or applied for freshwater quality testing (ecotoxicological, genotoxicological and toxicogenomic assays), coupled with field investigations on macrobenthic community structures (SPEAR and EBI indexes). Together with the development of new bioassays with Daphnia magna, the feasibility of eco-genotoxicological testing of freshwater and sediment quality with Heterocypris incongruens was evaluated (Comet Assay and a protocol for chronic toxicity). However, the Comet Assay, although standardized, was not applied to freshwater samples due to the lack of sensitivity of this species observed after 24h of exposure to relatively high (and not environmentally relevant) concentrations of reference genotoxicants. Furthermore, this species demonstrated to be unsuitable also for chronic toxicity testing due to the difficult evaluation of fecundity as sub-lethal endpoint of exposure and complications due to its biology and behaviour. The study was applied to a pilot hydrographic sub-Basin, by selecting section subjected to different levels of anthropogenic pressure: this allowed us to establish the reference conditions, to select the most significant endpoints and to evaluate the coherence of the responses of the different lines of evidence (alteration of community structure, eco-genotoxicological responses, alteration of gene expression profiles) and, finally, the diagnostic capacity of the monitoring strategy. Significant correlations were found between the genotoxicological parameter Tail Intensity % (TI%) and macrobenthic community descriptors SPEAR (p<0.001) and EBI (p<0.05), between the genotoxicological parameter describing DNA oxidative stress (ΔTI%) and mean levels of nitrates (p<0.01) and between reproductive impairment (Failed Development % from D. magna chronic bioassays) and TI% (p<0.001) as well as EBI (p<0.001). While correlation among parameters demonstrates a general coherence in the response to increasing impacts, the concomitant ability of each single endpoint to be responsive to specific sources of stress is at the basis of the diagnostic capacity of the integrated approach as demonstrated by stations presenting a mismatch among the different lines of evidence. The chosen set of bioassays, as well as the selected endpoints, are not providing redundant indications on the water quality status but, on the contrary, are contributing with complementary pieces of information about the several stressors that insist simultaneously on a waterbody section providing this monitoring strategy with a solid diagnostic capacity. Our approach should provide opportunities for the integration of biological effects into monitoring programmes for surface water, especially in investigative monitoring. Moreover, it should provide a more realistic assessment of impact and exposure of aquatic organisms to contaminants. Finally this approach should provide an evaluation of drivers of change in biodiversity and its causalities on ecosystem function/services provision, that is the direct and indirect contributions to human well-being.
Resumo:
Lo studio delle regioni più interne degli ammassi globulari risulta fondamentale per la ricerca di buchi neri di massa intermedia (IMBH). La scoperta di tali oggetti avrebbe un impatto sostanziale su un gran numero di problemi astrofisici aperti, dalla formazione dei buchi neri supermassicci, all'interpretazione delle Ultra Luminous X-ray Sources, fino allo studio delle onde gravitazionali. Il presente lavoro di tesi si inserisce all'interno di un progetto osservativo mirato a studiare la dinamica interna degli ammassi globulari e volto ad investigare la presenza di IMBH nel centro di tali sistemi tramite l'analisi sistematica dei profili di dispersione di velocità e di rotazione. In questo elaborato presentiamo lo studio della cinematica del core dell'ammasso globulare NGC 6266, realizzato con lo spettrografo a campo integrale IFU-SINFONI, assistito da un sistema di ottiche adattive. Grazie all'utilizzo dell'ottica adattiva, SINFONI è in grado di realizzare osservazioni ad alta risoluzione spaziale e misurare la velocità radiale di stelle individuali anche nelle regioni più interne degli ammassi globulari, dove le misure spettroscopiche tradizionali falliscono a causa dell'elevato crowding stellare. Questo ci ha permesso di determinare il profilo centrale della dispersione di velocità di NGC 6266 dalla misura delle velocità radiali individuali di circa 400 stelle, localizzate negli 11 arcsec più interni dell'ammasso. Utilizzando dati complementari, provenienti da osservazioni realizzate con lo spettrografo multi-oggetto FLAMES, siamo stati in grado di costruire il profilo di dispersione di velocità di NGC 6266 fino ad una distanza radiale di 250 arcsec. Il profilo di dispersione di velocità osservato permette di escludere la presenza di un IMBH di massa superiore a 2500 masse solari e mostra un calo nella regione centrale, simile a quello rilevato in un numero crescente di ammassi globulari, che potrebbe indicare la presenza di anisotropia tangenziale.
Resumo:
Il cuore è uno dei principali organi vitali dell’organismo umano e la sua fisiologica attività è indispensabile per sostenere uno stile di vita conforme alle esigenze del singolo individuo. Le aritmie cardiache, alterazioni del ritmo, possono compromettere o limitare la vita di un paziente che ne è affetto. Specifiche aritmie cardiache vengono trattate con l’impianto di dispositivi cardiaci impiantabili, i defibrillatori, che generano una stimolazione elettrica nel tessuto cardiaco allo scopo di ripristinare un ritmo cardiaco fisiologico. Il presente elaborato descrive come tali dispositivi siano in grado di correggere le aritmie cardiache, garantendo la sicurezza del paziente e permettendogli di svolgere le normali attività quotidiane . Il primo capitolo andrà ad analizzare il cuore dal punto di vista anatomico e fisiologico per capirne il funzionamento non affetto da patologie. Il secondo capitolo concentrerà l’analisi sui defibrillatori impiantabili per stimolazione cardiaca (ICD), facendo luce sulla storia, sulle funzioni primarie,sui componenti interni,sulle patologie legate all’utilizzo,sulle tipologie presenti in commercio e sul metodo d’impianto. Il terzo capitolo è incentrato sul monitoraggio remoto degli ICD (home-monitoring), attraverso il quale il paziente può trasmettere per via transtelefonica al centro cardiologico di riferimento i dati tecnici e clinici desumibili dall’interrogazione del dispositivo impiantato, senza necessità di ricorrere al controllo ambulatoriale tradizionale. L’home-monitoring nei pazienti portatori di dispositivo impiantabile si è dimostrato efficace per l’individuazione di malfunzionamenti e di instabilità cliniche in misura sovrapponibile rispetto al controllo ambulatoriale tradizionale, offrendo però significativi vantaggi in termini di qualità della vita e di gestione delle risorse sanitarie. Infine saranno presentate le conclusioni di tale elaborato.
Resumo:
Microsoft ha introdotto nella versione 2015 di Visual Studio un nuovo compilatore per i linguaggi C# e Visual Basic chiamato Roslyn. Oltre che un compilatore, Roslyn è una piattaforma che mette a disposizione degli sviluppatori servizi per analizzare e modificare progetti .NET, interagire con le varie fasi della compilazione e creare applicazioni per l'analisi e generazione di codice sorgente. Obiettivo della tesi vuole essere lo studio della suddetta piattaforma ed il suo utilizzo nello sviluppo di estensioni per Visual Studio. La tesi si pone pertanto nel contesto delle tecniche di analisi e generazione di codice sorgente. Il lavoro di tesi ha previsto lo sviluppo di due applicazioni facenti uso delle API di Roslyn. La prima applicazione consiste in un analizzatore di codice C# che provvede alla segnalazione di warning riguardanti l'errato utilizzo del costrutto var e all'esplicitazione del tipo relativo. La seconda applicazione riguarda un generatore di codice C# che utilizza i servizi di Roslyn per semplificare e automatizzare la scrittura di codice nel contesto del framework Phoenix. I risultati ottenuti possono essere d'aiuto per un successivo studio della piattaforma Roslyn ed essere usati come punto di partenza per la creazione dei propri applicativi per l'analisi e generazione di codice sorgente.
Resumo:
Questa tesi riguarda l'implementazione e la verifica di alcuni algoritmi di determinazione d'assetto, con l'obiettivo di verificarne le prestazioni e valutarne la possibilità di utilizzo sul ADS del satellite DustCube, operante nel sistema binario Didymos. I filtri si basano sulla combinazione delle misure di diversi sensori, tra i quali star tracker, sensori di Sole, camera a infrarossi e giroscopio. I sensori in questione sono stati modellizzati all'interno di un simulatore implementato in MATLAB/Simulink. L'approccio utilizzato per la determinazione dell'assetto è quelllo di impiegare due differenti filtri: il primo per la calibrazione del giroscopio, il secondo che utilizza i parametri di calibrazione calcolati dal primo per correggere la velocità angolare misurata da giroscopio e determinare l'assetto con un maggiore accuratezza. Le prestazioni dei vari filtri sono state caratterizzate attraverso un'analisi statistica: le simulazioni Monte Carlo. I risultati, nei limiti delle ipotesi fatte, hanno confermato la validità dell'approccio. Per la determinazione effettiva delle prestazioni di questo sistema sull'ADS del DustCube si rimanda ad uno studio di maggior dettaglio.
Resumo:
Questa tesi riguarda il problema della schedulazione degli interventi nel blocco operatorio di un presidio ospedaliero, noto anche come Operating Theatre Planning & Scheduling. Il blocco operatorio è la struttura che eroga servizi a più alto impatto sui costi di un presidio ospedaliero ed è legato ad attività ad alto rischio. E' quindi fondamentale gestire in modo ottimale questa risorsa. In questa tesi, si considera come caso studio l'applicazione reale di un presidio ospedaliero dell'Emilia Romagna con un orizzonte temporale di una settimana, ovvero la cosiddetta programmazione operativa. L'obiettivo è quello di ottenere un utilizzo efficiente del blocco operatorio, garantendo al contempo la priorità agli interventi più urgenti. Data la complessità del problema, vengono proposti algoritmi euristici che permettano di ottenere buone soluzioni in tempi di calcolo ridotti. Studi precedenti hanno infatti evidenziato la difficoltà di trovare soluzioni ottime al problema, mediante l'utilizzo di solver commerciali per modelli di Programmazione Lineare Intera, senza introdurre ipotesi semplificative. Sono stati elaborati tre algoritmi euristici costruttivi di tipo multi-start che permettono di generare soluzioni ammissibili con diverse caratteristiche. Gli algoritmi si differenziano principalmente per le modalità con cui collocano gli interventi nel tempo disponibile delle risorse (induction room, operating room, recovery room), cercando di migliorarne l’utilizzazione e dando priorità ai pazienti più urgenti. Gli algoritmi sono stati implementati utilizzando il linguaggio JAVA e sono stati testati su istanze realistiche fornite dal presidio ospedaliero. I risultati hanno evidenziato un alto grado di utilizzazione delle sale operatorie, un fattore molto rilevante per una ottimale gestione del blocco operatorio. E' stata, infine, svolta un'analisi di sensitività alla variabilità delle durate.
Resumo:
Il CTBT (Trattato di Bando Complessivo dei Test Nucleari) è un accordo multilaterale tra Stati, stilato nel 1996, che impone il divieto assoluto di effettuare esplosioni di tipo nucleare, sia per scopi civili che per scopi militari, in qualsiasi ambiente. Esso prevede l'istituzione di un sistema di verifica e monitoraggio che si prefigge lo scopo di rilevare tempestivamente se in una qualsiasi parte del mondo sia stato clandestinamente effettuato un test. Tra le varie tecniche utilizzate, la più decisiva per l'identificazione di un'esplosione è data dal monitoraggio di radionuclidi, che permette di fare ipotesi su di un eventuale evento illecito di origine nucleare se in una certa regione si rileva la presenza nell'ambiente di particolari isotopi radioattivi in quantità anomale. Attualmente, il metodo più efficace consiste nell'eventuale identificazione della presenza di quattro radioisotopi di gas nobili, ovvero xeno-131m, xeno-133, xeno-133m e xeno-135. Di recente, però, gli esperti hanno cominciato a valutare l'ipotesi di effettuare misurazioni anche di un altro radioisotopo di gas nobili, ovvero l'argon-37. L'efficacia nell'utilizzo di quest'ultimo è superiore a quella che caratterizza il monitoraggio dello xeno, anche se il motivo per cui il metodo di rilevazione dell'argon non è ancora sfruttato è dato dall'estrema difficoltà che la sua misurazione comporta. Obiettivo di questo lavoro è proprio quello di analizzare le potenzialità dell'utilizzo di tale radioisotopo dell'argon per gli scopi di verifica del CTBT, di descrivere l'attuale stato dell'arte delle tecnologie disponibili per la sua misurazione e di valutare quantitativamente il fondo di argon-37 naturalmente presente, in modo da stabilire i criteri con cui si possa dire se le quantità rilevate siano compatibili con la normale presenza di tale radioisotopo oppure se siano senza dubbio dovute a un'avvenuta esplosione.
Resumo:
“La Business Intelligence per il monitoraggio delle vendite: il caso Ducati Motor Holding”. L’obiettivo di questa tesi è quello di illustrare cos’è la Business Intelligence e di mostrare i cambiamenti verificatisi in Ducati Motor Holding, in seguito alla sua adozione, in termini di realizzazione di report e dashboard per il monitoraggio delle vendite. L’elaborato inizia con una panoramica generale sulla storia e gli utilizzi della Business Intelligence nella quale vengono toccati i principali fondamenti teorici: Data Warehouse, data mining, analisi what-if, rappresentazione multidimensionale dei dati, costruzione del team di BI eccetera. Si proseguirà mediante un focus sui Big Data convogliando l’attenzione sul loro utilizzo e utilità nel settore dell’automotive (inteso nella sua accezione più generica e cioè non solo come mercato delle auto, ma anche delle moto), portando in questo modo ad un naturale collegamento con la realtà Ducati. Si apre così una breve overview sull’azienda descrivendone la storia, la struttura commerciale attraverso la quale vengono gestite le vendite e la gamma dei prodotti. Dal quarto capitolo si entra nel vivo dell’argomento: la Business Intelligence in Ducati. Si inizia descrivendo le fasi che hanno fino ad ora caratterizzato il progetto di Business Analytics (il cui obiettivo è per l'appunto introdurre la BI i azienda) per poi concentrarsi, a livello prima teorico e poi pratico, sul reporting sales e cioè sulla reportistica basata sul monitoraggio delle vendite.
Resumo:
L'elaborato tratta delle dinamiche del pricing, analizzando nello specifico al contrapposizione fra Prezzo e Valore per il Cliente, entrando nello specifico delle metodologie per la determinazione degli stessi per poi introdurre alcune delle più comuni politiche di prezzo attuate dalle aziende. Si descrive dunque il mercato degli elettrodomestici bianchi, evidenziando come il Prezzo sia una variabile determinante in questo mercato ormai in fase di saturazione. Infine si fa un analisi di "The Business Game" analizzando la condotta del team irajoya e come il Prezzo sia stato essenziale per il successo della squadra nel mercato simulato.
Resumo:
In questo studio sono stati analizzati ed ottimizzati alcuni algoritmi proposti in letteratura per la detezione dei parametri temporali della corsa, con l'obiettivo di determinare quale, fra quelli proposti, sia il più affidabile per il suo utilizzo nell'analisi dello sprint. Per fare ciò, sono state condotte delle acquisizioni outdoor su cinque atleti differenti, utilizzando tre sensori inerziali IMU EXL-s3 (EXEL S.r.l., Bologna) con frequenza di acquisizione a 200 Hz, posizionati sul dorso dei due piedi e sul tronco (schiena, livello L1). Gli algoritmi confrontati sono stati sviluppati in ambiente MATLAB (MathWorks Inc., USA) e sono stati riferiti al gold standard di telecamera a 250 fps analizzando, per ciascuno, i limits of agreement. L'algoritmo implementato da Bergamini et al. (si veda l'articolo 'Estimation of temporal parameters during sprint running using a trunk-mounted inertial measurement unit') è risultato il migliore, con un bias di circa 0.005 s e limits of agreement entro gli 0.025 s fra i dati da sensore e il riferimento video, dati questi che confermano anche i risultati ottenuti da Bergamini et al.
Resumo:
This article presents the classification and description of borrowings from the English language in the sector of special languages with reference to contemporary Italian. The present times are characterized by multiplicity of linguistic variants. Different, ready-made solutions to are observed this complex situation.