988 resultados para italiano, immigrati, L2
Resumo:
L'avanzamento nel campo della long document summarization dipende interamente dalla disponibilità di dataset pubblici di alta qualità e con testi di lunghezza considerevole. Risulta pertanto problematico il fatto che tali dataset risultino spesso solo in lingua inglese, comportandone una limitazione notevole se ci si rivolge a linguaggi le cui risorse sono limitate. A tal scopo, si propone LAWSU-IT, un nuovo dataset giudiziario per long document summarization italiana. LAWSU-IT è il primo dataset italiano di summarization ad avere documenti di grandi dimensioni e a trattare il dominio giudiziario, ed è stato costruito attuando procedure di cleaning dei dati e selezione mirata delle istanze, con lo scopo di ottenere un dataset di long document summarization di alta qualità. Inoltre, sono proposte molteplici baseline sperimentali di natura estrattiva e astrattiva con modelli stato dell'arte e approcci di segmentazione del testo. Si spera che tale risultato possa portare a ulteriori ricerche e sviluppi nell'ambito della long document summarization italiana.
Resumo:
Il seguente lavoro ha lo scopo di analizzare la parabola politica e la comunicazione di Matteo Salvini con una prospettiva internazionale. Nel testo verrà seguita cronologicamente la carriera, dagli anni di militanza nelle file della Lega Nord, fino al crollo del Governo Conte I, passando in rassegna vicende nevralgiche, successi, scandali e dibattiti che segnano questo periodo. La parte principale del lavoro consiste nell’analisi dei commenti espressi sulle colonne di due quotidiani stranieri, The Guardian per il Regno Unito e Le Monde per la Francia, rispetto all’operato di Matteo Salvini ed agli eventi politici che lo vedono protagonista.
Resumo:
L’Intelligenza Artificiale negli ultimi anni sta plasmando il futuro dell’umanità in quasi tutti i settori. È già il motore principale di diverse tecnologie emergenti come i big data, la robotica e l’IoT e continuerà ad agire come innovatore tecnologico nel futuro prossimo. Le recenti scoperte e migliorie sia nel campo dell’hardware che in quello matematico hanno migliorato l’efficienza e ridotto i tempi di esecuzione dei software. È in questo contesto che sta evolvendo anche il Natural Language Processing (NLP), un ramo dell’Intelligenza Artificiale che studia il modo in cui fornire ai computer l'abilità di comprendere un testo scritto o parlato allo stesso modo in cui lo farebbe un essere umano. Le ambiguità che distinguono la lingua naturale dalle altre rendono ardui gli studi in questo settore. Molti dei recenti sviluppi algoritmici su NLP si basano su tecnologie inventate decenni fa. La ricerca in questo settore è quindi in continua evoluzione. Questa tesi si pone l'obiettivo di sviluppare la logica di una chatbot help-desk per un'azienda privata. Lo scopo è, sottoposta una domanda da parte di un utente, restituire la risposta associata presente in una collezione domande-risposte. Il problema che questa tesi affronta è sviluppare un modello di NLP in grado di comprendere il significato semantico delle domande in input, poiché esse possono essere formulate in molteplici modi, preservando il contenuto semantico a discapito della sintassi. A causa delle ridotte dimensioni del dataset italiano proprietario su cui testare il modello chatbot, sono state eseguite molteplici sperimentazioni su un ulteriore dataset italiano con task affine. Attraverso diversi approcci di addestramento, tra cui apprendimento metrico, sono state raggiunte alte accuratezze sulle più comuni metriche di valutazione, confermando le capacità del modello proposto e sviluppato.
Resumo:
Il lavoro di tesi presentato è nato da una collaborazione con il Politecnico di Macao, i referenti sono: Prof. Rita Tse, Prof. Marcus Im e Prof. Su-Kit Tang. L'obiettivo consiste nella creazione di un modello di traduzione automatica italiano-cinese e nell'osservarne il comportamento, al fine di determinare se sia o meno possibile l'impresa. Il trattato approfondisce l'argomento noto come Neural Language Processing (NLP), rientrando dunque nell'ambito delle traduzioni automatiche. Sono servizi che, attraverso l'ausilio dell'intelligenza artificiale sono in grado di elaborare il linguaggio naturale, per poi interpretarlo e tradurlo. NLP è una branca dell'informatica che unisce: computer science, intelligenza artificiale e studio di lingue. Dal punto di vista della ricerca, le più grandi sfide in questo ambito coinvolgono: il riconoscimento vocale (speech-recognition), comprensione del testo (natural-language understanding) e infine la generazione automatica di testo (natural-language generation). Lo stato dell'arte attuale è stato definito dall'articolo "Attention is all you need" \cite{vaswani2017attention}, presentato nel 2017 a partire da una collaborazione di ricercatori della Cornell University.\\ I modelli di traduzione automatica più noti ed utilizzati al momento sono i Neural Machine Translators (NMT), ovvero modelli che attraverso le reti neurali artificiali profonde, sono in grado effettuare traduzioni o predizioni. La qualità delle traduzioni è particolarmente buona, tanto da arrivare quasi a raggiungere la qualità di una traduzione umana. Il lavoro infatti si concentrerà largamente sullo studio e utilizzo di NMT, allo scopo di proporre un modello funzionale e che sia in grado di performare al meglio nelle traduzioni da italiano a cinese e viceversa.
Resumo:
Il presente elaborato ha come obiettivo la creazione di un glossario terminologico trilingue italiano-russo-spagnolo sul cancro ovarico. Un glossario terminologico è un glossario che contiene diverse informazioni rilevanti sui termini (definizione, contesto d'uso, sinonimi, collocazioni). Si tratta di uno strumento prezioso per interpreti e traduttori impegnati in un incarico concernente un ambito specifico e specializzato. Dunque, un glossario terminologico è una risorsa fondamentale che può essere aggiornata e sviluppata costantemente. Per la creazione di glossari terminologici è importante analizzare la terminologia utilizzata in una grande quantità di testi e ciò è possibile grazie ai corpora, che, oggigiorno, possono essere creati automaticamente tramite l'utilizzo di software specifici. Nell'elaborato, dunque, ci si soffermerà dapprima su aspetti teorici relativi ai linguaggi specialistici, alla terminologia e alla linguistica dei corpora. Successivamente, si descriverà il dominio oggetto di indagine, ossia il cancro ovarico. Infine, si descriverà la metodologia utilizzata per la creazione dei corpora specialistici nelle tre lingue oggetto di studio e delle schede terminologiche finali, che rappresentano il risultato ultimo dell'elaborato.
Resumo:
Nell’attuale contesto energetico di forte instabilità, prezzi e produttività subiscono continue variazioni a causa di fattori politici ed economici. Il sistema elettrico è chiamato a rispondere velocemente ai cambiamenti garantendo continuamente il soddisfacimento del fabbisogno di energia elettrica. Nel presente elaborato viene utilizzato un modello di costo dinamico, estratto dalla letteratura scientifica, con lo scopo di gestire efficientemente i flussi energetici e garantire una programmazione ottimale del mix produttivo. Viene analizzato lo scenario italiano mettendo in relazione produzione, trasmissione e domanda energetica. I dati utilizzati fanno riferimento, quanto più possibile, al contesto attuale. Coerentemente con la situazione reale i risultati ottenuti mettono in risalto le criticità e i punti di forza principali del sistema elettrico italiano delineando i possibili cambiamenti attuabili a medio termine.
Resumo:
RAMÍREZ SAN MIGUEL, Dailis. Melhoria do Programa de Atenção a Saúde dos Hipertensos e Diabéticos, na Estratégia Saúde da Família Bairro Italiano Dr Fábio Telles Tourem, São Francisco de Assis/ RS. 2015. Trabalho de Conclusão de Curso (Curso de Especialização em Saúde da Família) - Departamento de Medicina Social, Faculdade de Medicina, Universidade Federal de Pelotas, Pelotas, 215. A Hipertensão Arterial e Diabetes Mellitus são patologias de preocupação do Ministério de Saúde devido seu alto nível de incidências e complicações. A baixa cobertura de atenção á saúde dos usuários com HAS e DM na população de cobertura da Estratégia Saúde da Família (ESF) Bairro Italiano Dr Fábio Telles Tourem, São Francisco de Assis/RS e o fato dessas doenças constituírem as principais causas de morbimortalidade da área em questão, foram motivações para escolha desse tema para a intervenção. Com o objetivo de Melhorar a atenção á Saúde dos usuários Hipertensos e Diabéticos, foi realizada uma intervenção com a duração de quatro meses (fevereiro- junho) nesta ESF. Participaram da intervenção todos os hipertensos e diabéticos da área de abrangência. As ações realizadas na intervenção foram baseadas no Caderno de Atenção Básica n° 36 e 37 – Estratégias para o cuidado da Pessoa com doença crônica, Diabetes Mellitus e Hipertensão Arterial Sistêmica, respectivamente (BRASIL, 2013; BRASIL, 2013a). Para alcançar os objetivos propostos foram estabelecidas metas e ações a serem realizadas. O cadastro desses usuários na planilha de coleta de dados (Anexo A) foi realizado no momento da consulta, a qual serviu para monitoramento e acompanhamento das metas e indicadores. Para registro das atividades foram utilizados o prontuário clínico individual e a ficha espelho (Anexo B). Dentre as metas a cumprir tivemos: ampliação da cobertura, melhoria na qualidade a atenção aos hipertensos e diabéticos assim como a melhoria na adesão e registro das informações dos hipertensos e diabéticos. Para isso estabelecemos ações dentro de quatro eixos pedagógicos: avaliação e monitoramento das ações, organização e gestão do serviço, engajamento público e qualificação da prática clínica. Com esse trabalho conseguimos alcançar uma cobertura do programa de 35,4% (n=475) e 36,6% (n=140) para hipertensos e diabéticos respectivamente. Também foram alcançados 100% de qualidade nos demais indicadores avaliados durante a intervenção. A intervenção serviu para que a equipe toda se envolvesse nas atividades desenvolvidas com a população. Além disso, foi o momento que serviu para capacitar a equipe sobre os protocolos de atendimentos dos hipertensos e diabéticos e recomendações do Ministério da Saúde. O serviço pode viabilizar acompanhamento a um maior número de pessoas, além de agendamentos para os Hipertensos e Diabéticos, sendo importante para a comunidade começar a entender a importância no cuidado e cumprimento das orientações oferecidas para os hipertensos e diabéticos.
Resumo:
The microabrasion technique of enamel consists of selectively abrading the discolored areas or causing superficial structural changes in a selective way. In microabrasion technique, abrasive products associated with acids are used, and the evaluation of enamel roughness after this treatment, as well as surface polishing, is necessary. This in-vitro study evaluated the enamel roughness after microabrasion, followed by different polishing techniques. Roughness analyses were performed before microabrasion (L1), after microabrasion (L2), and after polishing (L3).Thus, 60 bovine incisive teeth divided into two groups were selected (n=30): G1- 37% phosphoric acid (37%) (Dentsply) and pumice; G2- hydrochloric acid (6.6%) associated with silicon carbide (Opalustre - Ultradent). Thereafter, the groups were divided into three sub-groups (n=10), according to the system of polishing: A - Fine and superfine granulation aluminum oxide discs (SofLex 3M); B - Diamond Paste (FGM) associated with felt discs (FGM); C - Silicone tips (Enhance - Dentsply). A PROC MIXED procedure was applied after data exploratory analysis, as well as the Tukey-Kramer test (5%). No statistical differences were found between G1 and G2 groups. L2 differed statistically from L1 and showed superior amounts of roughness. Differences in the amounts of post-polishing roughness for specific groups (1A, 2B, and 1C) arose, which demonstrated less roughness in L3 and differed statistically from L2 in the polishing system. All products increased enamel roughness, and the effectiveness of the polishing systems was dependent upon the abrasive used.
Resumo:
A fosmid metagenomic library was constructed with total community DNA obtained from a municipal wastewater treatment plant (MWWTP), with the aim of identifying new FeFe-hydrogenase genes encoding the enzymes most important for hydrogen metabolism. The dataset generated by pyrosequencing of a fosmid library was mined to identify environmental gene tags (EGTs) assigned to FeFe-hydrogenase. The majority of EGTs representing FeFe-hydrogenase genes were affiliated with the class Clostridia, suggesting that this group is the main hydrogen producer in the MWWTP analyzed. Based on assembled sequences, three FeFe-hydrogenase genes were predicted based on detection of the L2 motif (MPCxxKxxE) in the encoded gene product, confirming true FeFe-hydrogenase sequences. These sequences were used to design specific primers to detect fosmids encoding FeFe-hydrogenase genes predicted from the dataset. Three identified fosmids were completely sequenced. The cloned genomic fragments within these fosmids are closely related to members of the Spirochaetaceae, Bacteroidales and Firmicutes, and their FeFe-hydrogenase sequences are characterized by the structure type M3, which is common to clostridial enzymes. FeFe-hydrogenase sequences found in this study represent hitherto undetected sequences, indicating the high genetic diversity regarding these enzymes in MWWTP. Results suggest that MWWTP have to be considered as reservoirs for new FeFe-hydrogenase genes.
Resumo:
The physical model was based on the method of Newton-Euler. The model was developed by using the scientific computer program Mathematica®. Several simulations where tried varying the progress speeds (0.69; 1.12; 1.48; 1.82 and 2.12 m s-1); soil profiles (sinoidal, ascending and descending ramp) and height of the profile (0.025 and 0.05 m) to obtain the normal force of soil reaction. After the initial simulations, the mechanism was optimized using the scientific computer program Matlab® having as criterion (function-objective) the minimization of the normal force of reaction of the profile (FN). The project variables were the lengths of the bars (L1y, L2, l3 and L4), height of the operation (L7), the initial length of the spring (Lmo) and the elastic constant of the spring (k t). The lack of robustness of the mechanism in relation to the variable height of the operation was outlined by using a spring with low rigidity and large length. The results demonstrated that the mechanism optimized showed better flotation performance in relation to the initial mechanism.
Resumo:
This paper discusses theoretical results of the research project Linguistic Identity and Identification: A Study of Functions of Second Language in Enunciating Subject Constitution. Non-cognitive factors that have a crucial incidence in the degree of success and ways of accomplishment of second language acquisition process are focused. A transdisciplinary perspective is adopted, mobilising categories from Discourse Analysis and Psychoanalysis. The most relevant ones are: discursive formation, intradiscourse, interdiscourse, forgetting n° 1, forgetting n° 2 (Pêcheux, 1982), identity, identification (Freud, 1966; Lacan, 1977; Nasio, 1995). Revuz s views (1991) are discussed. Her main claim is that during the process of learning a foreign language, the foundations of psychical structure, and consequently first language, are required. After examining how nomination and predication processes work in first and second languages, components of identity and identification processes are focused on, in an attempt to show how second language acquisition strategies depend on them. It is stated that methodological affairs of language teaching, learner s explicit motivation and the like are subordinated to the comprehension of deeper non-cognitive factors that determine the accomplishment of the second language acquisition process. It is also pointed out that those factors are to be approached, questioning the bipolar biological-social conception of subjectivity in the study of language acquisition and use and including in the analysis symbolic and significant dimensions of the discourse constitution process.
Resumo:
The aim of this paper is to verify the level of text comprehension (reading and translation) in Portuguese, by native speakers of Spanish and vice-versa. The subjects are freshmen, from different fields (300 native speakers of Portuguese and 300 of Spanish), who have never studied the other language neither as a second (L2) nor as a foreign language (FL). The results show that, in each group of subjects, there is a high level of comprehension of the foreign language, which varies from 58% to 94%, depending on the context and on the lexical/semantic similarity (or difference) between the key-words in the texts used in this research.
Resumo:
O texto apresenta breve introdução à vida e à obra de Giovanni Angelo Brunelli (1722-1804), astrônomo bolonhês que participou da primeira Comissão Demarcadora de Limites entre as possessões de Portugal e Espanha na América do Sul, de 1753 a 1761, a serviço da Coroa lusitana. Em seguida, são publicados os três trabalhos de Brunelli sobre a Amazônia brasileira, tendo como temas a pororoca (1767), a mandioca (1767) e o rio Amazonas (1791); e dois outros documentos relacionadas à comissão, um ofício no qual Brunelli reclama a coordenação dos trabalhos de cartografia (1752) e um rascunho do diário de viagem do astrônomo até o rio Negro (1754). Todos esses documentos foram traduzidos ao português, pela primeira vez, do latim e do italiano.
Resumo:
The energy spectrum of cosmic rays above 2.5 x 10(18) eV, derived from 20 000 events recorded at the Pierre Auger Observatory, is described. The spectral index gamma of the particle flux, J proportional to E(-gamma), at energies between 4 x 10(18) eV and 4 x 10(19) eV is 2.69 +/- 0.02(stat) +/- 0.06(syst), steepening to 4.2 +/- 0.4(stat) +/- 0: 06 (syst) at higher energies. The hypothesis of a single power law is rejected with a significance greater than 6 standard deviations. The data are consistent with the prediction by Greisen and by Zatsepin and Kuz'min.
Resumo:
The surface detector array of the Pierre Auger Observatory is sensitive to Earth-skimming tau neutrinos that interact in Earth's crust. Tau leptons from nu(tau) charged-current interactions can emerge and decay in the atmosphere to produce a nearly horizontal shower with a significant electromagnetic component. The data collected between 1 January 2004 and 31 August 2007 are used to place an upper limit on the diffuse flux of nu(tau) at EeV energies. Assuming an E(nu)(-2) differential energy spectrum the limit set at 90% C. L. is E(nu)(2)dN(nu tau)/dE(nu) < 1: 3 x 10(-7) GeV cm(-2) s(-1) sr(-1) in the energy range 2 x 10(17) eV< E(nu) < 2 x 10(19) eV.