916 resultados para traduzione in portogheselibro per bambinimestieri tradizionali


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Lo scopo di questo elaborato è stato determinare una modalità per ridurre il rischio di Listeria monocytogenes in semi di ravanello utilizzati per produrre germogli ad uso alimentare. Per fare ciò è stato utilizzato il timolo, un composto fenolico la cui attività antimicrobica è nota. In primo luogo sono state eseguite prove preliminari in vitro per verificare gli effetti di diverse concentrazioni di questo terpene su L. monocytogenes mediante l’uso di un citofluorimetro. I risultati hanno mostrato che 30 minuti di esposizione a 500 ppm di timolo in acqua peptonata determinano un danneggiamento della membrana cellulare in metà della popolazione microbica. Quando l’esposizione avviene in tampone fosfato, l’effetto è evidente già a 250 ppm (82% di cellule danneggiate). Successivamente, è stato valutato l’effetto di diverse concentrazioni di timolo su cellule di L. monocytogenes preventivamente inoculate su semi di ravanello. La prova è stata condotta in due modalità: la prima in contenitori sterili, la seconda in germogliatori per riprodurre fedelmente le tecniche utilizzate nel processo industriale o casalingo. Sono stati effettuati sia campionamenti microbiologici (su semi, germogli e acqua degli ammolli) sia prove di germinabilità per individuare un’eventuale riduzione della capacità germinativa dei semi a seguito del contatto con timolo. Dai dati ottenuti è emerso che il timolo riesce a contenere entro certi limiti la crescita di L. monocytogenes nell’acqua usata per l’ammollo, ma non ha un effetto significativo sul suo destino nei semi durante la germinazione. La presenza di timolo non compromette la capacità germinativa ma rallenta il processo di germinazione. In conclusione, il processo produttivo di germogli lascia spazio a molti rischi microbiologici nel caso siano già presenti nella matrice delle specie patogene. Ciò nonostante l’impiego di trattamenti preliminari sui semi prima del germogliamento, può essere una strada importante per ridurne i rischi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Questa tesi si focalizza sullo studio dei modelli fisico-matematici attualmente in uso per la simulazione di fluidi al calcolatore con l’obiettivo di fornire nozioni di base e avanzate sull’utilizzo di tali metodi. La trattazione ha lo scopo di facilitare la comprensione dei principi su cui si fonda la simulazione di fluidi e rappresenta una base per la creazione di un proprio simulatore. E’ possibile studiare le caratteristiche di un fluido in movimento mediante due approcci diversi, l’approccio lagrangiano e l’approccio euleriano. Mentre l’approccio lagrangiano ha lo scopo di conoscere il valore, nel tempo, di una qualsiasi proprietà di ciascuna particella che compone il fluido, l’approccio euleriano, fissato uno o più punti del volume di spazio occupato da quest’ultimo, vuole studiare quello che accade, nel tempo, in quei punti. In particolare, questa tesi approfondisce lo studio delle equazioni di Navier-Stokes, approcciandosi al problema in maniera euleriana. La soluzione numerica del sistema di equazioni differenziali alle derivate parziali derivante dalle equazioni sopracitate, approssima la velocità del fluido, a partire dalla quale è possibile risalire a tutte le grandezze che lo caratterizzano. Attenzione viene riservata anche ad un modello facente parte dell’approccio semi-lagrangiano, il Lattice Boltzmann, considerato una via di mezzo tra i metodi puramente euleriani e quelli lagrangiani, che si basa sulla soluzione dell’equazione di Boltzmann mediante modelli di collisione di particelle. Infine, analogamente al metodo di Lattice Boltzmann, viene trattato il metodo Smoothed Particles Hydrodynamics, tipicamente lagrangiano, secondo il quale solo le proprietà delle particelle comprese dentro il raggio di una funzione kernel, centrata nella particella di interesse, influenzano il valore della particella stessa. Un resoconto pratico della teoria trattata viene dato mediante delle simulazioni realizzate tramite il software Blender 2.76b.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Negli ultimi anni si è potuto notare un notevole incremento dei servizi web che hanno come caratteristica comune quella di mettere in comunicazione domanda e offerta per un determinato tipo di bene o di servizio. Questi siti web o applicazioni per smartphone sono chiamati multisided platforms e, negli ultimi anni, oltre ad essere cresciuti molto come numero, hanno anche incrementato considerevolmente il loro valore. Booking.com, Uber, Airbnb, Alibaba, Expedia sono solo alcuni esempi di multisided platforms. È evidente che in tanti settori è in atto una rivoluzione di come si incontrerà la domanda e l’offerta e visto l'enorme successo negli ultimi anni di questo tipo di piattaforme questa tesi vuole studiare i motivi della loro crescita. Dal punto di vista dell’utente è evidente che le multi-sided platforms riducono i costi di transizione, permettendo una ricerca veloce tra le soluzioni che soddisfano il proprio bisogno. Ma dal punto di vista aziendale perché decidere di appoggiare il proprio business su questo tipo di siti o applicazioni? Per rispondere a questa domanda verrà inizialmente fatta una analisi del segmento delle MSPs, e successivamente verrà fatto un confronto tra le principali piattaforme di ecommerce (attualmente Amazon ed eBay) e una soluzione che non si basa su una piattaforma gestita da terzi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

In questa tesi vengono presentati i piu recenti risultati relativi all'estensione della teoria dei campi localmente covariante a geometrie che permettano di descrivere teorie di campo supersimmetriche. In particolare, si mostra come la definizione assiomatica possa essere generalizzata, mettendo in evidenza le problematiche rilevanti e le tecniche utilizzate in letteratura per giungere ad una loro risoluzione. Dopo un'introduzione alle strutture matematiche di base, varieta Lorentziane e operatori Green-iperbolici, viene definita l'algebra delle osservabili per la teoria quantistica del campo scalare. Quindi, costruendo un funtore dalla categoria degli spazio-tempo globalmente iperbolici alla categoria delle *-algebre, lo stesso schema viene proposto per le teorie di campo bosoniche, purche definite da un operatore Green-iperbolico su uno spazio-tempo globalmente iperbolico. Si procede con lo studio delle supervarieta e alla definizione delle geometrie di background per le super teorie di campo: le strutture di super-Cartan. Associando canonicamente ad ognuna di esse uno spazio-tempo ridotto, si introduce la categoria delle strutture di super-Cartan (ghsCart) il cui spazio-tempo ridotto e globalmente iperbolico. Quindi, si mostra, in breve, come e possibile costruire un funtore da una sottocategoria di ghsCart alla categoria delle super *-algebre e si conclude presentando l'applicazione dei risultati esposti al caso delle strutture di super-Cartan in dimensione 2|2.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

L'applicazione di misure, derivanti dalla teoria dell'informazione, fornisce un valido strumento per quantificare alcune delle proprietà dei sistemi complessi. Le stesse misure possono essere utilizzate in robotica per favorire l'analisi e la sintesi di sistemi di controllo per robot. In questa tesi si è analizzata la correlazione tra alcune misure di complessità e la capacità dei robot di portare a termine, con successo, tre differenti task. I risultati ottenuti suggeriscono che tali misure di complessità rappresentano uno strumento promettente anche nel campo della robotica, ma che il loro utilizzo può diventare difficoltoso quando applicate a task compositi.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Dalla volontà di proporre una soluzione al tema delle disabilità fisiche in ambiente cittadino evoluto e tecnologicamente avanzato, è nata l'idea di progettare un'applicazione in grado di generare visibilità attorno ad un tema che dovrebbe progredire nella stessa maniera dello sviluppo tecnologico. Lo scopo di questa tesi è proporre un tentativo concreto per entrare in contatto con una problematica di ordine sociale che lo sviluppo tecnologico dovrebbe tenere in maggiore considerazione. Si vuole cercare di sfruttare Internet come mezzo per enfatizzare un problema concreto come la mancanza di visibilità e coinvolgimento sociale attorno la tematica delle disabilità. I nativi digitali utilizzano costantemente sia social network che piattaforme dedite allo scambio di informazioni e alla creazione di visibilità. Vivono il mondo digitale come una vetrina nella quale potersi mettere in mostra e creare una reputazione. Il mondo digitale, in particolare quello dei social network viene visto dai più come la fonte principale di costruzione dei legami sociali, ciò è sicuramente vero, ma bisogna capire che tipo e quanto profonde possano essere tali relazioni. La mia generazione è cresciuta in un periodo ibrido, coinvolta sia nel mondo analogico sia in quello digitale, molti sono stati risucchiati da un vortice di superficialità e apparenze altamente correlati con gli effetti generati da una società capitalistica perfettamente identificabile nei profili che ogni giorno andiamo a creare per metterci in mostra nei social network. In prima analisi con la collaborazione del Dipartimento disabilità dell'Università di Bologna si era cercato di porre l'attenzione su un approccio più orientativo per venire in contro a problematiche del genere. Qualcosa che permettesse a tutti nella stessa maniera di vivere la realtà accademica e cittadina stimolando l'interazione degli studenti con socialità marginale.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Internet è la rete globale a cui si può avere accesso in modo estremamente facile, consentendo praticamente a chiunque di inserire i propri contenuti in tempi rapidi, a costi quasi nulli e senza limitazioni geografiche. Il progresso tecnologico e la maggiore disponibilità della banda larga, uniti alle nuove modalità di fruizione ed ai nuovi format, hanno portato ben il 70% degli web users a vedere video online regolarmente. La popolarità dei servizi di streaming video è cresciuta rapidamente, tanto da registrare dei dati di traffico impressionanti negli ultimi due anni. Il campo applicativo della tesi è Twitch, il più celebre servizio di streaming che è riuscito ad imporsi come quarto sito negli Stati Uniti per traffico Internet: un dato sorprendente se pensiamo che si occupa solo di videogiochi. Il fenomeno Twitch è destinato a durare, lo dimostrano i 970 milioni di dollari investiti da Amazon nel 2014 per acquistare la piattaforma, diventata così una sussidiaria di Amazon. L'obiettivo della tesi è stato lo studio di mercato della piattaforma, attraverso il recupero e l'analisi delle informazioni reperibili in letteratura, nonché attraverso estrapolazione di dati originari mediante le API del sito. Si è proceduto all’analisi delle caratteristiche del mercato servito, in termini di segmentazione effettiva, rivolta alla messa in evidenza della possibile dipendenza dai comportamenti dei player, con particolare attenzione alla possibile vulnerabilità.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Il mondo degli smartphone, in particolare grazie all’avvento delle app, costituisce un settore che ha avuto negli ultimi anni una crescita tale, da richiedere l’introduzione di un nuovo termine in ambito finanziario: app economy. La crescente richiesta da parte del mercato di nuove opportunitá derivanti dal mondo delle applicazioni, ha aumentato sensibilmente il carico di lavoro richiesto alle software house specializzate,che hanno pertanto avuto la necessitá di adeguarsi a tale cambiamento. Per ovviare alle suddette problematiche, sono iniziati ad emergere due tool che consentono lo sviluppo di applicazioni multipiattaforma utilizzando un linguaggio ed un ambiente di sviluppo comuni. Tali sistemi consentono un risparmio in termini di tempi e costi, ma non sono in grado di competere con i tool nativi in termini di qualità del prodotto realizzato, in particolare per quanto concerne l'interfaccia grafica. Si propone pertanto un approccio che tenta di combinare i vantaggi di entrambe le soluzioni, al fine di ottimizzare la fluidità della UI, consentendo allo stesso tempo il riuso della logica applicativa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Nel primo capitolo parleremo dell'accessibilità ai siti web siccome con la crescita dei contenuti multimediali e dei contenuti dinamici, non vengono sempre presi in causa le disabilità che una persona può avere nel visualizzare determinati contenuti. Si tratterà di crescita del web 2.0 e nascita del web 3.0. La transcodifica dei contenuti e i problemi che ogni persona in base alla sua disabilità può riscontrare usando apparecchi differenti per l'accesso ai dati. Parleremo dell'evoluzione dell'uso dei siti in versione mobile cosi da fare un paragono con l'usabilità tra desktop e mobile. Nel secondo capitolo andremo ad analizzare tutte le specifiche che siamo andati a prendere in considerazione per lo sviluppo di questa estensione. Guarderemo quali sono le motivazioni che ci hanno portato allo sviluppo di un'estensione di questo tipo. Verranno anche descritte tutte le scelte progettuali prese in via di sviluppo per migliorare l'usabilità e l'utilizzo dei dati raccolti, per fornire un servizio più efficiente all'utente. Nel terzo capitolo andremo a spiegare tutta l'implementazione effettuata per ExTraS con tutte le funzionalità considerate e scelte in base ai problemi più importanti di accessibilità attualmente riscontrati nel mondo del web da persone con diversi gradi di disabilità. Le principali disabilità che vengono prese in considerazione per l'utilizzo di questo addon sono persone che soffrono di ipovisione, daltonismo. L'ultimo paragrafo di questo capitolo descriverà test effettuati con utenti reali e con utenti simulati. Il test con utenti simulati è stato effettuato grazie al lavoro di tesi effettuato da Alberto Fariselli il quale ha integrato ExTraS creando un simulatore basato sul Q-learning.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study evaluated the enamel loss and composite remnants after debonding and clean-up. The tested null hypothesis is that there are no differences between different polishing systems regarding removing composite remnants without damaging the tooth surface. Brackets were bonded to 75 extracted human molars and removed after a storage period of 100 hours. The adhesive remnant index (ARI) was evaluated. The clean-up was carried out with five different procedures: 1. carbide bur; 2. carbide bur and Brownie and Greenie silicone polishers; 3. carbide bur and Astropol polishers; 4. carbide bur and Renew polishers; and 5. carbide bur, Brownie, Greenie and PoGo polishers. Silicone impressions were made at baseline (T0) and after debonding (T1) and polishing (T2) to produce plaster replicas. The replicas were analysed with a three-dimensional laser scanner and measured with analytical software. Statistical analysis was performed with the Kruskal-Wallis test and pairwise Wilcoxon tests with Bonferroni-Holm adjustment (α = 0.05). Enamel breakouts after debonding were detectable in 27 per cent of all cases, with a mean volume loss of 0.02 mm(3) (±0.03 mm(3)) and depth of 44.9 μm (±48.3 μm). The overall ARI scores was 3 with a few scores of 1 and 2. The composite remnants after debonding had a mean volume of 2.48 mm(3) (±0.92 mm(3)). Mean volume loss due to polishing was 0.05 mm(3) (±0.26 mm(3)) and the composite remnants had a mean volume of 0.22 mm(3) (±0.32 mm(3)). There were no statistically significant differences in volumetric changes after polishing (P = 0.054) between the different clean-up methods. However, sufficient clean-up without enamel loss was difficult to achieve.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Der Beitrag zum Thema "Italienisch in den Institutionen" beruht auf der Feststellung von Unterschieden im Vergleich der italienischen Rechts- und Verwaltungssprache, die in den europäischen und in den italienischen Institutionen verwendet wird. Im Gegensatz zu Englisch, Französisch und Deutsch gilt Italienisch auf europäischer Ebene als "kleine", weniger wichtige Sprache. Trotz des Grundsatzes der Gleichstellung der Amtssprachen in der Europäischen Union hat dies Konsequenzen, vor allem hinsichtlich der täglich in den Institutionen verwendeten Arbeitssprachen. Im Mittelpunkt des Beitrages stehen Produktion und Typologisierung von Verwaltungs- und Rechtstexten in den europäischen Institutionen und die für größere sprachliche Einheitlichkeit bereitgestellten Hilfsmittel und Übersetzungshilfen. Danach werden die typischen Unterschiede zwischen "europäischem" und "nationalem" Rechts- und Verwaltungsitalienisch dargestellt. Konkrete Einblicke in die Arbeit zur Verbesserung der Sprachqualität der unterschiedlichen Formen des Italienischen in den Institutionen runden den Beitrag ab. Ziel des zum Zweck der Koordinierung dieser Bemühungen gegründete Expertennetzwerks REI (Rete di eccellenza dell’italiano istituzionale) ist es, Bezugspunkt und Ansprechpartner für alle diejenigen zu sein, welche sich auf europäischer oder nationaler Ebene mit Übersetzung, Terminologie oder dem Verfassen von italienischen Rechts- oder Verwaltungstexten befassen. Das auf Vorschlag der Generaldirektion Übersetzung der Europäischen Kommission gegründete Netzwerk arbeitet in verschiedenen Fachgruppen, an denen Experten aus Forschung und Praxis, Linguisten und Juristen, teilnehmen.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

This study examines the question of whether the journal ranking VHB-JOURQUAL 2 can be considered as a good measure for the construct “scientific quality”. Various rankings in business research provide the database for the analysis. The correlations between theses rankings are used to assess the validity of VHB-JOURQUAL 2 along various validity criteria. The correlations with rankings that measure the same construct based on different methods show that VHB-JOURQUAL 2 has acceptable, but moderate convergent validity. The validity varies considerably across disciplines, showing that the heterogeneity of business administration is not sufficiently represented by this overall ranking. The variability is related to the variation in members per discipline represented by the German Association for Business Research. Furthermore, the measure shows a weak correlation with acceptance rates as an indicator of nomological validity in some disciplines.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

BACKGROUND Monitoring of HIV viral load in patients on combination antiretroviral therapy (ART) is not generally available in resource-limited settings. We examined the cost-effectiveness of qualitative point-of-care viral load tests (POC-VL) in sub-Saharan Africa. DESIGN Mathematical model based on longitudinal data from the Gugulethu and Khayelitsha township ART programmes in Cape Town, South Africa. METHODS Cohorts of patients on ART monitored by POC-VL, CD4 cell count or clinically were simulated. Scenario A considered the more accurate detection of treatment failure with POC-VL only, and scenario B also considered the effect on HIV transmission. Scenario C further assumed that the risk of virologic failure is halved with POC-VL due to improved adherence. We estimated the change in costs per quality-adjusted life-year gained (incremental cost-effectiveness ratios, ICERs) of POC-VL compared with CD4 and clinical monitoring. RESULTS POC-VL tests with detection limits less than 1000 copies/ml increased costs due to unnecessary switches to second-line ART, without improving survival. Assuming POC-VL unit costs between US$5 and US$20 and detection limits between 1000 and 10,000 copies/ml, the ICER of POC-VL was US$4010-US$9230 compared with clinical and US$5960-US$25540 compared with CD4 cell count monitoring. In Scenario B, the corresponding ICERs were US$2450-US$5830 and US$2230-US$10380. In Scenario C, the ICER ranged between US$960 and US$2500 compared with clinical monitoring and between cost-saving and US$2460 compared with CD4 monitoring. CONCLUSION The cost-effectiveness of POC-VL for monitoring ART is improved by a higher detection limit, by taking the reduction in new HIV infections into account and assuming that failure of first-line ART is reduced due to targeted adherence counselling.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

BACKGROUND The use of combination antiretroviral therapy (cART) comprising three antiretroviral medications from at least two classes of drugs is the current standard treatment for HIV infection in adults and children. Current World Health Organization (WHO) guidelines for antiretroviral therapy recommend early treatment regardless of immunologic thresholds or the clinical condition for all infants (less than one years of age) and children under the age of two years. For children aged two to five years current WHO guidelines recommend (based on low quality evidence) that clinical and immunological thresholds be used to identify those who need to start cART (advanced clinical stage or CD4 counts ≤ 750 cells/mm(3) or per cent CD4 ≤ 25%). This Cochrane review will inform the current available evidence regarding the optimal time for treatment initiation in children aged two to five years with the goal of informing the revision of WHO 2013 recommendations on when to initiate cART in children. OBJECTIVES To assess the evidence for the optimal time to initiate cART in treatment-naive, HIV-infected children aged 2 to 5 years. SEARCH METHODS We searched the Cochrane Central Register of Controlled Trials (CENTRAL), MEDLINE, EMBASE, the AEGIS conference database, specific relevant conferences, www.clinicaltrials.gov, the World Health Organization International Clinical Trials Registry platform and reference lists of articles. The date of the most recent search was 30 September 2012. SELECTION CRITERIA Randomised controlled trials (RCTs) that compared immediate with deferred initiation of cART, and prospective cohort studies which followed children from enrolment to start of cART and on cART. DATA COLLECTION AND ANALYSIS Two review authors considered studies for inclusion in the review, assessed the risk of bias, and extracted data on the primary outcome of death from all causes and several secondary outcomes, including incidence of CDC category C and B clinical events and per cent CD4 cells (CD4%) at study end. For RCTs we calculated relative risks (RR) or mean differences with 95% confidence intervals (95% CI). For cohort data, we extracted relative risks with 95% CI from adjusted analyses. We combined results from RCTs using a random effects model and examined statistical heterogeneity. MAIN RESULTS Two RCTs in HIV-positive children aged 1 to 12 years were identified. One trial was the pilot study for the larger second trial and both compared initiation of cART regardless of clinical-immunological conditions with deferred initiation until per cent CD4 dropped to <15%. The two trials were conducted in Thailand, and Thailand and Cambodia, respectively. Unpublished analyses of the 122 children enrolled at ages 2 to 5 years were included in this review. There was one death in the immediate cART group and no deaths in the deferred group (RR 2.9; 95% CI 0.12 to 68.9). In the subgroup analysis of children aged 24 to 59 months, there was one CDC C event in each group (RR 0.96; 95% CI 0.06 to 14.87) and 8 and 11 CDC B events in the immediate and deferred groups respectively (RR 0.95; 95% CI 0.24 to 3.73). In this subgroup, the mean difference in CD4 per cent at study end was 5.9% (95% CI 2.7 to 9.1). One cohort study from South Africa, which compared the effect of delaying cART for up to 60 days in 573 HIV-positive children starting tuberculosis treatment (median age 3.5 years), was also included. The adjusted hazard ratios for the effect on mortality of delaying ART for more than 60 days was 1.32 (95% CI 0.55 to 3.16). AUTHORS' CONCLUSIONS This systematic review shows that there is insufficient evidence from clinical trials in support of either early or CD4-guided initiation of ART in HIV-infected children aged 2 to 5 years. Programmatic issues such as the retention in care of children in ART programmes in resource-limited settings will need to be considered when formulating WHO 2013 recommendations.