916 resultados para traduzione in portogheselibro per bambinimestieri tradizionali
Resumo:
Le tradizionali tecniche usate per l’analisi della struttura e della composizione comprendono, tra le altre, microscopia ottica, microscopia elettronica, diffrazione a raggi X e analisi chimica. In generale però, la maggior parte di questi metodi richiede una procedura di preparazione che può modificare la struttura o la composizione del campione. È necessario infatti che il campione non subisca alterazioni particolari durante la fase di preparazioni in modo tale che le condizioni fisiologiche rimangano il più possibile simili a quelle che si hanno in situ. Una tecnica che ultimamente sta diventando sempre più significativa in ambito biomedico è la spettroscopia Raman. Innanzitutto con l’analisi Raman la quantità di materiale da studiare per ottenere buoni risultati è minima, visto che possono essere studiati campioni che vanno dai micro ai nanogrammi; inoltre, possono essere analizzati campioni umidi e a pressione atmosferica, condizioni che rispecchiano verosimilmente quelle fisiologiche. Questo tipo di analisi è inoltre vantaggiosa dato che riesce a identificare diversi composti chimici, ha un’elevata risoluzione spaziale (0.6-1µm), riuscendo quindi ad analizzare campioni molto piccoli, ha tempi di misura brevi e può essere utilizzato più volte sullo stesso campione senza che quest’ultimo venga danneggiato. Nel seguente elaborato si sono riportati i risultati di diversi studi condotti sull’idrossiapatite naturale/biologica e sintetica ottenuti mediante questa tecnica spettroscopica. In particolare, ci si è soffermati sulla diversa concentrazione di OH- presente nell’apatite stechiometrica rispetto a quella biologica e di come tale concentrazione sia influenzata dalla presenza o meno dello ione carbonato. Si riportano inoltre le analisi condotte su campioni sintetici e biologici per comprendere se le molecole di acqua si trovino all’interno della struttura del minerale (acqua di bulk) o se siano solamente assorbite in superficie.
Resumo:
In the present study, Korean-English bilingual (KEB) and Korean monolingual (KM) children, between the ages of 8 and 13 years, and KEB adults, ages 18 and older, were examined with one speech perception task, called the Nonsense Syllable Confusion Matrix (NSCM) task (Allen, 2005), and two production tasks, called the Nonsense Syllable Imitation Task (NSIT) and the Nonword Repetition Task (NRT; Dollaghan & Campbell, 1998). The present study examined (a) which English sounds on the NSCM task were identified less well, presumably due to interference from Korean phonology, in bilinguals learning English as a second language (L2) and in monolinguals learning English as a foreign language (FL); (b) which English phonemes on the NSIT were more challenging for bilinguals and monolinguals to produce; (c) whether perception on the NSCM task is related to production on the NSIT, or phonological awareness, as measured by the NRT; and (d) whether perception and production differ in three age-language status groups (i.e., KEB children, KEB adults, and KM children) and in three proficiency subgroups of KEB children (i.e., English-dominant, ED; balanced, BAL; and Korean-dominant, KD). In order to determine English proficiency in each group, language samples were extensively and rigorously analyzed, using software, called Systematic Analysis of Language Transcripts (SALT). Length of samples in complete and intelligible utterances, number of different and total words (NDW and NTW, respectively), speech rate in words per minute (WPM), and number of grammatical errors, mazes, and abandoned utterances were measured and compared among the three initial groups and the three proficiency subgroups. Results of the language sample analysis (LSA) showed significant group differences only between the KEBs and the KM children, but not between the KEB children and adults. Nonetheless, compared to normative means (from a sample length- and age-matched database provided by SALT), the KEB adult group and the KD subgroup produced English at significantly slower speech rates than expected for monolingual, English-speaking counterparts. Two existing models of bilingual speech perception and production—the Speech Learning Model or SLM (Flege, 1987, 1992) and the Perceptual Assimilation Model or PAM (Best, McRoberts, & Sithole, 1988; Best, McRoberts, & Goodell, 2001)—were considered to see if they could account for the perceptual and production patterns evident in the present study. The selected English sounds for stimuli in the NSCM task and the NSIT were 10 consonants, /p, b, k, g, f, θ, s, z, ʧ, ʤ/, and 3 vowels /I, ɛ, æ/, which were used to create 30 nonsense syllables in a consonant-vowel structure. Based on phonetic or phonemic differences between the two languages, English sounds were categorized either as familiar sounds—namely, English sounds that are similar, but not identical, to L1 Korean, including /p, k, s, ʧ, ɛ/—or unfamiliar sounds—namely, English sounds that are new to L1, including /b, g, f, θ, z, ʤ, I, æ/. The results of the NSCM task showed that (a) consonants were perceived correctly more often than vowels, (b) familiar sounds were perceived correctly more often than unfamiliar ones, and (c) familiar consonants were perceived correctly more often than unfamiliar ones across the three age-language status groups and across the three proficiency subgroups; and (d) the KEB children perceived correctly more often than the KEB adults, the KEB children and adults perceived correctly more often than the KM children, and the ED and BAL subgroups perceived correctly more often than the KD subgroup. The results of the NSIT showed (a) consonants were produced more accurately than vowels, and (b) familiar sounds were produced more accurately than unfamiliar ones, across the three age-language status groups. Also, (c) familiar consonants were produced more accurately than unfamiliar ones in the KEB and KM child groups, and (d) unfamiliar vowels were produced more accurately than a familiar one in the KEB child group, but the reverse was true in the KEB adult and KM child groups. The KEB children produced sounds correctly significantly more often than the KM children and the KEB adults, though the percent correct differences were smaller than for perception. Production differences were not found among the three proficiency subgroups. Perception on the NSCM task was compared to production on the NSIT and NRT. Weak positive correlations were found between perception and production (NSIT) for unfamiliar consonants and sounds, whereas a weak negative correlation was found for unfamiliar vowels. Several correlations were significant for perceptual performance on the NSCM task and overall production performance on the NRT: for unfamiliar consonants, unfamiliar vowels, unfamiliar sounds, consonants, vowels, and overall performance on the NSCM task. Nonetheless, no significant correlation was found between production on the NSIT and NRT. Evidently these are two very different production tasks, where immediate imitation of single syllables on the NSIT results in high performance for all groups. Findings of the present study suggest that (a) perception and production of L2 consonants differ from those of vowels; (b) perception and production of L2 sounds involve an interaction of sound type and familiarity; (c) a weak relation exists between perception and production performance for unfamiliar sounds; and (d) L2 experience generally predicts perceptual and production performance. The present study yields several conclusions. The first is that familiarity of sounds is an important influence on L2 learning, as claimed by both SLM and PAM. In the present study, familiar sounds were perceived and produced correctly more often than unfamiliar ones in most cases, in keeping with PAM, though experienced L2 learners (i.e., the KEB children) produced unfamiliar vowels better than familiar ones, in keeping with SLM. Nonetheless, the second conclusion is that neither SLM nor PAM consistently and thoroughly explains the results of the present study. This is because both theories assume that the influence of L1 on the perception of L2 consonants and vowels works in the same way as for production of them. The third and fourth conclusions are two proposed arguments: that perception and production of consonants are different than for vowels, and that sound type interacts with familiarity and L2 experience. These two arguments can best explain the current findings. These findings may help us to develop educational curricula for bilingual individuals listening to and articulating English. Further, the extensive analysis of spontaneous speech in the present study should contribute to the specification of parameters for normal language development and function in Korean-English bilingual children and adults.
Resumo:
Il presente lavoro di ricerca si concentra sulla sincronizzazione nel doppiaggio e consiste nello scoprire se il tentativo di ottenere la sincronia labiale nel doppiaggio di un film avesse come risultato la perdita di qualche informazione essenziale nel contenuto semantico. Al punto di analisi si arriva tra una descrizione esaustiva del doppiaggio. È un percorso che parte dalla nascita del doppiaggio, attraverso lo sviluppo fino ad arrivare alla particolarizzazione del processo lavorativo. Come l’oggetto di ricerca si è scelto il film (DVD) di origine finlandese “Mies vailla menneisyyttä” di Aki Kaurismäki (2002) inclusa la versione doppiata in italiano (l’Uomo Senza Passato). Si è esaminato quali tecniche sono state usate nella traduzione dei dialoghi per il doppiaggio per raggiungere una sincronia adeguata e se il dialoghista ha preferito rispettare il contenuto semantico o la sincronia. I risultati mostrano che per ottenere una bella sincronia, non è necessario deviare dal contenuto semantico del testo originale. Utilizzando le tecniche adatte alla traduzione per il doppiaggio è possibile produrre un doppiaggio che rispetti sia lo stile e la storia del film sia la sincronia. Un effetto negativo sulla qualità del doppiaggio è stato dato dai punti (anche se erano pochi) con errori nella sincronia sillabica. Il mio suggerimento sarebbe di fare attenzione a questi punti in cui la lunghezza della battuta doppiata supera quella originale siccome causano gli errori più visibili nella sincronia.
Resumo:
Il presente lavoro di tesi riguarda lo studio di un modello di stima delle emissioni per la previsione della contaminazione ambientale in aria. Il lavoro è stato svolto all’interno del DICAM dell’Università di Bologna attraverso il supporto del relatore Giacomo Antonioni e dei correlatori Ada Saracino e Gigliola Spadoni. L’applicazione modellistica, attraverso l’uso del software CALPUFF, ha trattato le emissioni del camino E312 della sezione Agglomerazione dello stabilimento siderurgico ILVA di Taranto nell’anno 2015. Gli inquinanti simulati sono quelli per i quali lo SME fornisce il flusso di massa: SO2, NOx, PM. Le polveri sono state considerate completamente costituite da polveri PM10 e per esse si è calcolata la concentrazione al suolo e la deposizione. A partire dai risultati per le polveri, ipotizzando che siano in parte veicolati da esse, sono state valutate anche le concentrazioni e le deposizioni di Diossine. Della configurazione modellistica “ottimale” sono stati presentati: ▪ Per i macroinquinanti le medie annue di concentrazione al suolo, e quindi, la dispersione degli inquinanti. ▪ Per i microinquinanti i valori massimi di concentrazione annua e di deposizione ottenuti nell’area di studio. Nel caso in esame, lo studio è stato riferito alla rete deposimetrica di gestione ILVA (per mancanza di dati deposimetrici della rete di gestione ARPA). In particolare è stato preso in considerazione il deposimetro del quartiere Tamburi a fronte delle criticità rilevate nei mesi di Novembre 2014 e Febbraio 2015, tale per cui, visti gli elevatissimi valori di deposizione, vista la notevole importanza che i dati deposimetrici hanno rispetto al rischio sanitario per ingestione, è stata aperta un’indagine della procura che ha affidato l’analisi a ARPA PUGLIA congiunta con l’ISPRA (che ne ha mandato ministeriale) e la Regione Puglia. A fronte di tali episodi, il seguente studio ha voluto fornire un resoconto deposimetrico per l’anno 2015.
Resumo:
In questa tesi viene descritta l'analisi, progettazione e realizzazione di una applicazione web per la creazione degli alberi genealogici. Partendo da una serie di motivazione personali e uno studio sui rapporti bilaterali di parentela nel campo della genealogia, sono stati delineati le basi per la costruzione del progetto.
Resumo:
Il progetto realizzato consiste in uno strumento software in grado di effettuare una conversione di file, dal formato MIDI al formato MusicXML. Il tool è il proseguimento di un’attività basata sull'analisi di reti complesse e sullo sviluppo di strumenti per la modellazione di spartiti musicali. Melodie, assoli ed in generale tracce musicali sono rappresentabili come reti complesse, in cui i nodi identificano le note del brano e gli archi mostrano le sequenze con cui queste vengono suonate. Utilizzando la teoria delle reti è possibile estrarre alcune metriche principali che caratterizzano il brano in questione. Per la generazione della rete si è fatto uso di spartiti musicali descritti tramite lo standard MusicXML. File in questo formato sono difficilmente reperibili, per cui lo strumento realizzato si propone di effettuare una conversione da formato MIDI a formato MusicXML, con l’obiettivo di ottenere un database più esteso. Attraverso il tool sono stati convertiti brani di diverso genere, le cui reti relative sono state poi analizzate applicandovi le metriche principali ed effettuando le dovute valutazioni.
Resumo:
La diffusione di smartphone e dispostivi mobili a cui si è assistito nell’ultima decade ha portato con sé lo sviluppo di nuovi sistemi e tecnologie basate sulla localizzazione. Questi sistemi vengono chiamati Location Based Systems (LBS) ed il loro successo è stato reso possibile dai sensori come GPS, antenna WiFi e accelerometro che hanno permesso agli sviluppatori di creare contenuti e servizi basati sulla posizione dell’utente. Una delle tecnologie su cui si basano i LBS è chiamata Geofencing e consiste nella creazione di aree virtuali (dette geofence) per delimitare luoghi di interesse (Point of Interests) e notificare l’utente quando entra, esce o si trova nelle vicinanze di una delle aree delimitate. Questa caratteristica viene utilizzata soprattutto per realizzare applicazioni che ricordano all’utente di svolgere delle azioni, per esempio un’app di promemoria che ricorda all’utente di comprare il latte quando si trova vicino ad un supermercato. Dal punto di vista economico, uno degli utilizzi piu` promettenti `e il co- siddetto Context Aware Advertising: i possessori di dispositivi mobili che si trovano a camminare nelle vicinanze di un negozio o un centro commer- ciale possono essere considerati possibili clienti e ricevere delle notifiche con pubblicit`a o questionari. Nel seguente lavoro verrà analizzato nel dettaglio cos’è il Geofencing, le sue applicazioni e le tecnologie sulla quale si basa. Verranno presi in considerazione alcuni problemi relativi all’utilizzo delle tecnologie di posizionamento, con particolare attenzione ai consumi di batteria. Verrà inoltre descritta la progettazione e l’implementazione di una piattaforma che permette ai possessori di attività commerciali di creare e gestire dei POI nonché di monitorare gli spostamenti dei possibili clienti. Dopo aver installato l’applicazione mobile sul proprio smartphone, i clienti potranno ricevere notifiche una volta oltrepassati i confini di un geofence.
Resumo:
In questo progetto di tesi vengono descritte le fasi che hanno portato alla creazione di una web application per automatizzare campagne pubblicitarie attraverso Google Shopping. Partendo dall'analisi dello stato dell'arte del web advertising, vengono successivamente trattate le fasi di progettazione ed implementazione. Infine vengono valutati i risultati ottenuti e discussi i possibili sviluppi futuri.
Resumo:
I Big Data stanno guidando una rivoluzione globale. In tutti i settori, pubblici o privati, e le industrie quali Vendita al dettaglio, Sanità, Media e Trasporti, i Big Data stanno influenzando la vita di miliardi di persone. L’impatto dei Big Data è sostanziale, ma così discreto da passare inosservato alla maggior parte delle persone. Le applicazioni di Business Intelligence e Advanced Analytics vogliono studiare e trarre informazioni dai Big Data. Si studia il passaggio dalla prima alla seconda, mettendo in evidenza aspetti simili e differenze.
Resumo:
Gli Open Data sono un'utile strumento che sta via via assumendo sempre più importanza nella società; in questa tesi vedremo la loro utilità attraverso la realizzazione di un'applicazione mobile, che utilizza questi dati per fornire informazioni circa lo stato ambientale dell'aria e dei pollini in Emilia Romagna, sfruttando i dataset forniti da un noto ente pubblico (Arpa Emilia Romagna). Tale applicazione mobile si basa su un Web Service che gestisce i vari passaggi dei dati e li immagazzina in un database Mongodb. Tale Web Service è stato creato per essere a sua volta messo a disposizione di programmatori, enti o persone comuni per studi e sviluppi futuri in tale ambito.
Resumo:
Lo scopo del presente lavoro è la realizzazione e l'ottimizzazione di un software che, tramite l'utilizzo di un controllo automatico Proporzionale-Integrativo-Derivativo: PID, gestisca la temperatura di un fornetto in camera a vuoto. È necessario che il sistema sia in grado di eseguire rampe regolari di temperatura di diversa pendenza scelta dall'utente, in modo che possa essere utilizzato in futuro per esperimenti di Desorbimento Termico da parte di vari materiali. La tesi è così suddivisa, nel primo capitolo sono illustrati i concetti teorici di base utilizzati nello sviluppo dei controlli automatici. Nel secondo capitolo è descritta la parte hardware: sono mostrate le diverse sezioni che compongono il fornetto e la camera a vuoto, è inoltre illustrato il cablaggio che permette l'interfaccia del forno alla scheda Arduino ed al software LabVIEW. La terza sezione è dedicata agli studi svolti per la realizzazione del sistema di controllo PID e per la sua ottimizzazione. Il quarto capitolo è invece dedicato alla descrizione del software creato per la gestione del fornetto. Nel quinto capitolo sono infine mostrati i metodi utilizzati per il calcolo delle costanti operative del PID ed i risultati sperimentali ottenuti.
Resumo:
The fluctuation in water demand in the Redland community of Miami-Dade County was examined using land use data from 2001 and 2011 and water estimation techniques provided by local and state agencies. The data was converted to 30 m mosaicked raster grids that indicated land use change, and associated water demand measured in gallons per day per acre. The results indicate that, first, despite an increase in population, water demand decreased overall in Redland from 2001 to 2011. Second, conversion of agricultural lands to residential lands actually caused a decrease in water demand in most cases while acquisition of farmland by public agencies also caused a sharp decline. Third, conversion of row crops and groves to nurseries was substantial and resulted in a significant increase in water demand in all such areas converted. Finally, estimating water demand based on land use, rather than population, is a more accurate approach.
Resumo:
Changes in the size spectra of demersal fish communities off Cape Verde (1988, 1994), Guinea (1985-1995), and Mauritania (1987-2001) were studied. Intercepts and slopes showed opposite trends for Guinea and Mauritania, but were relatively stable in spite of a strong increase in landings per unit area. For Cape Verde, there were marked changes in size structure, seemingly inconsistent with the more moderate fishing pressure there. Changes in size structure do not seem to be suitable indicators of the effects of fishing in areas characterized by faster growth rates, small sizes, high species diversity, and complex interrelationships, such as the tropics. (c) 2005 International Council for the Exploration of the Sea. Published by Elsevier Ltd. All rights reserved.
Resumo:
We examined the effects of different hook style and bait type combinations on the catches of targeted, bycatch, and discarded fishes in equatorial Atlantic waters. In total, 221 longline sets (>305,000 hooks) were deployed from Portuguese pelagic longline vessels (SELECT -PAL Project) during the February–October fishing season. Three different hook styles and two bait types were tested: the traditional J-hook was compared to two circle hooks (one non-offset and one with 10° offset), and squid bait was compared to mackerel. Catch per unit effort (CPU Es) were calculated and compared between the different hook style and bait type combinations, which indicated that the effects of hook style and bait on the CPU Es were species-specific. For example, swordfish CPU Es were higher with J-hooks baited with squid, while for targeted tunas and blue shark only the bait effect was significant, but with opposite effect (i.e., higher catches of tuna with squid bait and higher catches of blue shark with mackerel bait). For the discarded species, at-haulback mortality was also species-specific. Proportions of alive vs dead specimens at time of fishing gear retrieval did not vary significantly by hook style or bait type combinations. The total retained catch was analyzed in value per unit effort (VPU E), and indicated losses in fishery revenue when mackerel was used instead of squid, but not when circle hooks were used instead of J-hooks.
Resumo:
Introduction and Aims: Remote delivery of interventions is needed to address large numbers of people with alcohol use disorders who are spread over large areas. Previous correspondence trials typically examined its effects as stand-alone treatment. This study aimed to test whether adding postal treatment to general practitioner (GP) support would lower alcohol use more than GP intervention alone. Design and Methods: A single-blind, randomised controlled trial with a crossover design was conducted over 12 months on 204 people with alcohol use disorders. Participants in an immediate correspondence condition received treatment over the first 3 months; those receiving delayed treatment received it in months 3–6. Results: Few participants were referred from GPs, and little intervention was offered by them. At 3 months, 78% of participants remained in the study. Those in immediate treatment showed greater reductions in alcohol per week, drinking days, anxiety, depression and distress than those in the delayed condition. However, post-treatment and follow-up outcomes still showed elevated alcohol use, depression, anxiety and distress. Greater baseline anxiety predicted better alcohol outcomes, although more mental distress at baseline predicted dropout. Discussion and Conclusions: The study gave consistent results with those from previous research on correspondence treatments, and showed that high levels of participant engagement over 3 months can be obtained. Substantial reductions in alcohol use are seen, with indications that they are well maintained. However, many participants continue to show high-risk alcohol use and psychological distress.