987 resultados para smartphone analisi mercato evoluzione competitor
Resumo:
Durante il lavoro di tesi si è analizzato e sviluppato un convertitore trifase multilivello di nuova generazione per l'allacciamento di un campo fotovoltaico multistringa alla rete elettrica. Si sono quindi studiati gli algoritmi di controllo di questa tipologia di inverter e sono state proposte soluzioni ad alcune delle più importanti problematiche incontrate in fase di sviluppo.
Resumo:
Resumo:
L’elaborato, dopo una ricostruzione della disciplina normativa presente in materia di contratto a tempo determinato in Italia e nei principali ordinamenti europei (Spagna, Francia ed Inghilterra), affronta i più rilevanti nodi problematici dell’istituto, in riferimento al settore privato e pubblico, mettendo in luce le principali querelle dottrinali e giurisprudenziali. Particolare attenzione è dedicata alle questioni insorte a seguito delle ultime modifiche normative di cui al c.d. Collegato lavoro (legge n. 183/2010), sino al decisivo intervento della Corte Costituzionale, con pronuncia n. 303 del 9 novembre 2011, che ha dichiarato legittima la disposizione introduttiva dell’indennità risarcitoria forfetizzata, aggiuntiva rispetto alla conversione del contratto. Tutte le problematiche trattate hanno evidenziato le difficoltà per le Corti Superiori, così come per i giudici comunitari e nazionali, di trovare una linea univoca e condivisa nella risoluzione delle controversie presenti in materia. L’elaborato si chiude con alcune riflessioni sui temi della flessibilità e precarietà nel mondo del lavoro, attraverso una valutazione quantitativa e qualitativa dell’istituto, nell’intento di fornire una risposta ad alcuni interrogativi: la flessibilità è necessariamente precarietà o può essere letta quale forma speciale di occupazione? Quali sono i possibili antidoti alla precarietà? In conclusione, è emerso come la flessibilità possa rappresentare un problema per le imprese e per i lavoratori soltanto nel lungo periodo. La soluzione è stata individuata nell’opportunità di investire sulla formazione. Si è così ipotizzata una nuova «flessibilità socialmente ed economicamente sostenibile», da realizzarsi tramite l’ausilio delle Regioni e, quindi, dei contributi del Fondo europeo di sviluppo regionale: al lavoratore, in tal modo, potrà essere garantita la continuità con il lavoro tramite percorsi formativi mirati e, d’altro canto, il datore di lavoro non dovrà farsi carico dei costi per la formazione dei dipendenti a tempo determinato.
Resumo:
La cippatura è un processo produttivo fondamentale nella trasformazione della materia prima forestale in biomassa combustibile che coinvolgerà un numero sempre più crescente di operatori. Scopo dello studio è stato quantificare la produttività e il consumo di combustibile in 16 cantieri di cippatura e determinare i livelli di esposizione alla polvere di legno degli addetti alla cippatura, in funzione di condizioni operative differenti. Sono state identificate due tipologie di cantiere: uno industriale, con cippatrici di grossa taglia (300-400kW) dotate di cabina, e uno semi-industriale con cippatrici di piccola-media taglia (100-150kW) prive di cabina. In tutti i cantieri sono stati misurati i tempi di lavoro, i consumi di combustibile, l’esposizione alla polvere di legno e sono stati raccolti dei campioni di cippato per l’analisi qualitativa. Il cantiere industriale ha raggiunto una produttività media oraria di 25 Mg tal quali, ed è risultato 5 volte più produttivo di quello semi-industriale, che ha raggiunto una produttività media oraria di 5 Mg. Ipotizzando un utilizzo massimo annuo di 1500 ore, il cantiere semi-industriale raggiunge una produzione annua di 7.410 Mg, mentre quello industriale di 37.605 Mg. Il consumo specifico di gasolio (L per Mg di cippato) è risultato molto minore per il cantiere industriale, che consuma in media quasi la metà di quello semi-industriale. Riguardo all’esposizione degli operatori alla polvere di legno, tutti i campioni hanno riportato valori di esposizione inferiori a 5 mg/m3 (limite di legge previsto dal D.Lgs. 81/08). Nei cantieri semi-industriali il valore medio di esposizione è risultato di 1,35 mg/m3, con un valore massimo di 3,66 mg/m3. Nei cantieri industriali si è riscontrato che la cabina riduce drasticamente l’esposizione alle polveri di legno. I valori medi misurati all’esterno della cabina sono stati di 0,90 mg/m3 mentre quelli all’interno della cabina sono risultati pari a 0,20 mg/m3.
Resumo:
I linfomi primitivi cutanei riconosciuti nella classificazione della WHO/EORTC si presentano come “entità cliniche distinte” su base clinica, morfologica, immunofenotipica e molecolare. Il fenotipo linfocitario T helper CD4+ caratterizza i CTCL, ma alcune entità a prognosi aggressiva presentano un immunofenotipo citotossico CD8+. Numerosi studi di citogenetica (CGH) e gene-expression profiling (GEP) sono stati condotti negli ultimi anni sui CTCL e sono state riscontrate numerose aberrazioni cromosomiche correlate ai meccanismi di controllo del ciclo cellulare. Scopo del nostro studio è la valutazione delle alterazioni genomiche coinvolte nella tumorigenesi di alcuni CTCL aggressivi: il linfoma extranodale NK/T nasal-type, il linfoma primitivo cutaneo aggressivo epidermotropo (AECTCL) e il gruppo dei PTCL/NOS pleomorfo CD8+. Il materiale bioptico dei pazienti è stato sottoposto alla metodica dell’array-CGH per identificare le anomalie cromosomiche; in alcuni casi di AECTCL è stata applicata la GEP, che evidenzia il profilo di espressione genica delle cellule neoplastiche. I dati ottenuti sono stati valutati in modo statistico, evidenziando le alterazioni cromosomiche comuni significative di ogni entità. In CGH, sono state evidenziate alcune aberrazioni comuni fra le entità studiate, la delezione di 9p21.3, l’amplificazione di 17q, 19p13, 19q13.11-q13.32 , 12q13 e 16p13.3, che determinano la delezione dei geni CDKN2A e CDKN2B e l’attivazione del JAK/STAT signaling pathway. Altre alterazioni definiscono l’amplificazione di c-MYC (8q24) e CCND1/CDK4-6 (11q13). In particolare, sono state evidenziate numerose anomalie genomiche comuni in casi di AECTCL e PTCL/NOS pleomorfo. L’applicazione della GEP in 5 casi di AECTCL ha confermato l’alterata espressione dei geni CDKN2A, JAK3 e STAT6, che potrebbero avere un ruolo diretto nella linfomagenesi. Lo studio di un numero maggiore di casi in GEP e l’introduzione delle nuove indagini molecolari come l’analisi dei miRNA, della whole-exome e whole genome sequences consentiranno di evidenziare alterazioni molecolari correlate con la prognosi, definendo anche nuovi target terapeutici.
Resumo:
Obiettivi. L’ecografia con mezzo di contrasto (CEUS) può fornire informazioni sulla microvascolarizzazione della parete intestinale nella malattia di Crohn. L’infiammazione della parete intestinale non sembra essere correlata alla quantità di parete vascolarizzata (studi di pattern di vascolarizzazione, SVP) ma all’intensità del flusso di parete in un determinato periodo di tempo (studi di intensità-tempo, SIT). Scopo dello studio è valutare se gli studi SVP e/o SIT mediante CEUS siano in grado di mostrare il reale grado d’infiammazione della parete vascolare e se possano predire l’attività di malattia a 3 mesi. Materiali e metodi: 30 pazienti con malattia di Crohn venivano sottoposti a SVP e SIT mediante CEUS e venivano rivisti dopo 3 mesi. L’eCografia era eseguita con uno strumento dedicato con un software particolare per il calcolo delle curve intensità-tempo e con l’ausilio di un mezzo di contrasto (Sonovue). L’analisi quantitativa consisteva nella misura dell’area sotto la curva (AUC) (con cut-off tra malattia attiva e inattiva di 15) e di un intensità media (IM) con un cut-off di 10. Tutti gli esami venivano registrati e analizzati in modo digitale. Risultati: A T0: CDAI era inferiore a 150 in 22 pazienti e superiore a 150 in 8 pazienti; a T3: CDAI era inferiore a 150 in 19 pazienti e superiore a 150 in 11 pazienti. A T0 sia la CEUS SPV che la SIT evidenziavano bassa specificità, accuratezza diagnostica e valore predittivo negativo; a T3 la CEUS SVP mostrava bassa sensibilità e accuratezza diagnostica rispetto alla SIT che era in grado, in tutti i casi tranne uno, di predire l’attività clinica di malattia a tre mesi. Conclusioni: in questo studio, la CEUS-SIT ha mostrato buona accuratezza diagnostica nel predire l’attività clinica di malattia nel follow-up a breve termine di pazienti con malattia di Crohn.
Resumo:
"I computer del nuovo millennio saranno sempre più invisibili, o meglio embedded, incorporati agli oggetti, ai mobili, anche al nostro corpo. L'intelligenza elettronica sviluppata su silicio diventerà sempre più diffusa e ubiqua. Sarà come un'orchestra di oggetti interattivi, non invasivi e dalla presenza discreta, ovunque". [Mark Weiser, 1991] La visione dell'ubiquitous computing, prevista da Weiser, è ormai molto vicina alla realtà e anticipa una rivoluzione tecnologica nella quale l'elaborazione di dati ha assunto un ruolo sempre più dominante nella nostra vita quotidiana. La rivoluzione porta non solo a vedere l'elaborazione di dati come un'operazione che si può compiere attraverso un computer desktop, legato quindi ad una postazione fissa, ma soprattutto a considerare l'uso della tecnologia come qualcosa di necessario in ogni occasione, in ogni luogo e la diffusione della miniaturizzazione dei dispositivi elettronici e delle tecnologie di comunicazione wireless ha contribuito notevolmente alla realizzazione di questo scenario. La possibilità di avere a disposizione nei luoghi più impensabili sistemi elettronici di piccole dimensioni e autoalimentati ha contribuito allo sviluppo di nuove applicazioni, tra le quali troviamo le WSN (Wireless Sensor Network), ovvero reti formate da dispositivi in grado di monitorare qualsiasi grandezza naturale misurabile e inviare i dati verso sistemi in grado di elaborare e immagazzinare le informazioni raccolte. La novità introdotta dalle reti WSN è rappresentata dalla possibilità di effettuare monitoraggi con continuità delle più diverse grandezze fisiche, il che ha consentito a questa nuova tecnologia l'accesso ad un mercato che prevede una vastità di scenari indefinita. Osservazioni estese sia nello spazio che nel tempo possono essere inoltre utili per poter ricavare informazioni sull'andamento di fenomeni naturali che, se monitorati saltuariamente, non fornirebbero alcuna informazione interessante. Tra i casi d'interesse più rilevanti si possono evidenziare: - segnalazione di emergenze (terremoti, inondazioni) - monitoraggio di parametri difficilmente accessibili all'uomo (frane, ghiacciai) - smart cities (analisi e controllo di illuminazione pubblica, traffico, inquinamento, contatori gas e luce) - monitoraggio di parametri utili al miglioramento di attività produttive (agricoltura intelligente, monitoraggio consumi) - sorveglianza (controllo accessi ad aree riservate, rilevamento della presenza dell'uomo) Il vantaggio rappresentato da un basso consumo energetico, e di conseguenza un tempo di vita della rete elevato, ha come controparte il non elevato range di copertura wireless, valutato nell'ordine delle decine di metri secondo lo standard IEEE 802.15.4. Il monitoraggio di un'area di grandi dimensioni richiede quindi la disposizione di nodi intermedi aventi le funzioni di un router, il cui compito sarà quello di inoltrare i dati ricevuti verso il coordinatore della rete. Il tempo di vita dei nodi intermedi è di notevole importanza perché, in caso di spegnimento, parte delle informazioni raccolte non raggiungerebbero il coordinatore e quindi non verrebbero immagazzinate e analizzate dall'uomo o dai sistemi di controllo. Lo scopo di questa trattazione è la creazione di un protocollo di comunicazione che preveda meccanismi di routing orientati alla ricerca del massimo tempo di vita della rete. Nel capitolo 1 vengono introdotte le WSN descrivendo caratteristiche generali, applicazioni, struttura della rete e architettura hardware richiesta. Nel capitolo 2 viene illustrato l'ambiente di sviluppo del progetto, analizzando le piattaforme hardware, firmware e software sulle quali ci appoggeremo per realizzare il progetto. Verranno descritti anche alcuni strumenti utili per effettuare la programmazione e il debug della rete. Nel capitolo 3 si descrivono i requisiti di progetto e si realizza una mappatura dell'architettura finale. Nel capitolo 4 si sviluppa il protocollo di routing, analizzando i consumi e motivando le scelte progettuali. Nel capitolo 5 vengono presentate le interfacce grafiche utilizzate utili per l'analisi dei dati. Nel capitolo 6 vengono esposti i risultati sperimentali dell'implementazione fissando come obiettivo il massimo lifetime della rete.
Resumo:
La green chemistry può essere definita come “l’utilizzo di una serie di principi che riducono o eliminano l’uso o la formazione di sostanze pericolose nella progettazione, produzione e applicazione di prodotti chimici”. . È in questo contesto che si inserisce la metodologia LCA (Life Cycle Assessment), come strumento di analisi e di valutazione. Lo scopo del presente lavoro di tesi è l’analisi degli impatti ambientali associati a processi chimici, ambito ancora poco sviluppato nella letteratura degli studi di LCA. Viene studiato e modellato il ciclo di vita (dall’ottenimento delle materie prime fino alla produzione del prodotto) della reazione di ammonossidazione per la produzione di acrilonitrile, valutando e comparando due alternative di processo: quella tradizionale, che utilizza propilene ( processo SOHIO), e le vie sintetiche che utilizzano propano, ad oggi poco sviluppate industrialmente. Sono stati pertanto creati sei scenari: due da propene (SOHIO FCC, con propene prodotto mediante Fluid Catalytic Cracking, e SOHIO Steam), e quattro da propano (ASAHI, MITSUBISHI, BP povero e ricco in propano). Nonostante la produzione dell’alcano abbia un impatto inferiore rispetto all’olefina, dovuto ai minori stadi di processo, dai risultati emerge che l’ammonossidazione di propano ha un impatto maggiore rispetto a quella del propene. Ciò è dovuto ai processi catalitici che utilizzano propano, che differiscono per composizione e prestazioni, rispetto a quelli da propene: essi risultano meno efficienti rispetto ai tradizionali, comportando maggiori consumi di reattivi in input . Dai risultati emerge che gli scenari da propano presentano maggiori impatti globali di quelli da propene per le categorie Cambiamento climatico, Formazione di materiale e Consumo di combustibili fossili. Invece per la categoria Consumo di metalli un impatto maggiore viene attribuito ai processi che utilizzano propene, per la maggior percentuale di metalli impiegata nel sistema catalitico, rispetto al supporto. L’analisi di contributo, eseguita per valutare quali sono le fasi più impattanti, conferma i risultati. Il maggior contributo per la categoria Consumo di combustibili fossili è ascrivibile ai processi di produzione del propano, dell’ammoniaca e del solfato di ammonio ( legato all’ammoniaca non reagita ). Stessi risultati si hanno per la categoria Cambiamento climatico, mentre per la categoria Formazione di materiale particolato, gli impatti maggiori sono dati dai processi di produzione del solfato di ammonio, del propano e dell’acido solforico (necessario per neutralizzare l’ammoniaca non reagita). Per la categoria Consumo di metalli, il contributo maggiore è dato dalla presenza del catalizzatore. È stata infine eseguita un’analisi di incertezza tramite il metodo Monte Carlo, verificando la riproducibilità dei risultati.
Resumo:
Analisi "dall'interno" del settore della comunicazione multimediale, attraverso l'analisi di un caso aziendale complesso vissuto in prima persona dall'autrice. Il caso tratta di un micro-distretto di aziende della Grafica, del Web e del Multimedia nel suo ciclo di vita dal 1998 al 2003, analizzando le mutazioni del comportamento organizzativo nelle sue differenti fasi di nascita, ascesa e declino. L'obiettivo è quello di identificare i comportamenti organizzativi favorevoli e contrari alla sopravvivenza nel settore, fornendo indicazioni per un corretto comportamento manageriale in un ambito creativo relativo ad una rete di imprese co-specializzate.
Resumo:
Questa relazione finale è incentrata sul lavoro sperimentale richiesto dalla collaborazione con l’azienda Natural Salumi ed ha come obiettivo principale quello di verifica dei parametri qualitativi e compositivi di una nuova tipologia di salume in fase di studio. L’azienda ha infatti messo a punto un nuovo “prodotto funzionale” addizionando componenti aventi attività nutraceutica al salame ottenuto da sole parti magre di suino (tipo NaturalFetta) e si propone di arricchire il proprio prodotto con acidi grassi polinsaturi della serie omega-3 (da olio di semi di lino), noti per gli effetti benefici esercitati sulla salute umana. Sul prodotto di nuova formulazione si effettueranno sia la determinazione della percentuale lipidica mediante metodo ufficiale Soxhlet ed automatizzato Soxtec, al fine di individuare il quantitativo totale della parte grassa, che una caratterizzazione del profilo quali-quantitativo in acidi grassi, fondamentale per verificare la conformità con i requisiti indicati dal Reg. 1924/06 (e successivi come il Reg. UE 432/2012) previsti per le indicazioni da inserire in etichetta (claims) per i prodotti arricchiti con acidi grassi polinsaturi (PUFA). La determinazione del profilo in acidi grassi e, nello specifico, del contenuto in acido -linolenico, sarà realizzata mediante gascromatografia previa estrazione della frazione lipidica dei salumi con metodo di Folch modificato, che prevede un'estrazione solido-liquido. La concentrazione di acido alfa-linolenico sarà inoltre monitorata durante tutto il periodo di shelf-life del prodotto (45 gg) al fine di valutare eventuali variazioni durante la conservazione. Per soddisfare quest’ultima finalità, le analisi saranno eseguite sia all’inizio (T0) che alla fine (T1) della vita commerciale del prodotto. Le stesse analisi verranno inoltre condotte sia sul prodotto a formulazione classica che su un prodotto del tutto simile, commercializzato da un’altra azienda e considerato come leader di mercato. In relazione ad un possibile aumento di ossidabilità della frazione lipidica, sarà realizzato un controllo dei parametri chimici, qualitativi e compositivi, con particolare riferimento ai prodotti di ossidazione del colesterolo (date le loro implicazioni in ambito biomedico). La maggiore presenza in formulazione di acidi grassi polinsaturi potrebbe infatti favorire un incremento dei COPs (Cholesterol Oxidation Products), che saranno separati, identificati e quantificati mediante la procedura SPE/GC-MS (estrazione e purificazione in fase solida accoppiata ad analisi gascromatografica con rivelazione mediante spettrometria di massa).
Resumo:
Il bacino ligure, pur facendo parte della più grande area marina protetta del Mar Mediterraneo, il Santuario Pelagos, risulta essere una regione in cui le attività umane stanno condizionando la presenza di numerose specie di Cetacei. Fra tutte Tursiops truncatus, in virtù della sua distribuzione limitata per lo più alle acque basse (<200 metri) è la specie maggiormente soggetta alle conseguenze dirette e indirette dell’impatto antropico. Questo elaborato è stato condotto all’interno del più ampio progetto “Delfini Metropolitani” coordinato dall’Acquario di Genova. L’area di studio presa in esame è l’intero levante ligure con tre stazioni di ormeggio: Genova, Rapallo e Lerici. Tramite la tecnica della cattura-ricattura fotografica è stato possibile analizzare la distribuzione ed effettuare delle stime di abbondanza per il periodo di studio 2005 – 2012. Dai risultati e dal confronto con altri studi è emerso che il tursiope vive entro la piattaforma continentale e sembrerebbe che all’aumentare di quest’ultima aumenti la dimensione della popolazione. Per il periodo di studio considerato la popolazione non fa registrare trend demografici significativi, rimanendo costante fra 150 - 250 individui. In questo elaborato si sono anche studiate le differenze fra maschi e femmine nell’evoluzione dei marcaggi naturali. I risultati preliminari hanno mostrato una differenza significativa fra i due sessi. Il maschio ha un valore maggiore come cambiamento rispetto alle femmine, questo è dovuto al fatto che gli individui maschi hanno interazioni spesso aggressive per poter accedere alle femmine. Infine grazie all’analisi dell’evoluzione dei marcaggi naturali e delle differenze trovate, si è proposto un nuovo metodo per poter sessare gli animali. Questo qui proposto, comunque, è un metodo derivante da uno studio preliminare e si ha bisogno di successivi studi per testarne l’efficienza e l’affidabilità.