712 resultados para Problem-based Learning
Resumo:
Pós-graduação em Engenharia Elétrica - FEIS
Resumo:
A etiquetagem morfossintática é uma tarefa básica requerida por muitas aplicações de processamento de linguagem natural, tais como análise gramatical e tradução automática, e por aplicações de processamento de fala, por exemplo, síntese de fala. Essa tarefa consiste em etiquetar palavras em uma sentença com as suas categorias gramaticais. Apesar dessas aplicações requererem etiquetadores que demandem maior precisão, os etiquetadores do estado da arte ainda alcançam acurácia de 96 a 97%. Nesta tese, são investigados recursos de corpus e de software para o desenvolvimento de um etiquetador com acurácia superior à do estado da arte para o português brasileiro. Centrada em uma solução híbrida que combina etiquetagem probabilística com etiquetagem baseada em regras, a proposta de tese se concentra em um estudo exploratório sobre o método de etiquetagem, o tamanho, a qualidade, o conjunto de etiquetas e o gênero dos corpora de treinamento e teste, além de avaliar a desambiguização de palavras novas ou desconhecidas presentes nos textos a serem etiquetados. Quatro corpora foram usados nos experimentos: CETENFolha, Bosque CF 7.4, Mac-Morpho e Selva Científica. O modelo de etiquetagem proposto partiu do uso do método de aprendizado baseado em transformação(TBL) ao qual foram adicionadas três estratégias, combinadas em uma arquitetura que integra as saídas (textos etiquetados) de duas ferramentas de uso livre, o TreeTagger e o -TBL, com os módulos adicionados ao modelo. No modelo de etiquetador treinado com o corpus Mac-Morpho, de gênero jornalístico, foram obtidas taxas de acurácia de 98,05% na etiquetagem de textos do Mac-Morpho e 98,27% em textos do Bosque CF 7.4, ambos de gênero jornalístico. Avaliou-se também o desempenho do modelo de etiquetador híbrido proposto na etiquetagem de textos do corpus Selva Científica, de gênero científico. Foram identificadas necessidades de ajustes no etiquetador e nos corpora e, como resultado, foram alcançadas taxas de acurácia de 98,07% no Selva Científica, 98,06% no conjunto de teste do Mac-Morpho e 98,30% em textos do Bosque CF 7.4. Esses resultados são significativos, pois as taxas de acurácia alcançadas são superiores às do estado da arte, validando o modelo proposto em busca de um etiquetador morfossintático mais confiável.
Resumo:
A presente dissertação objetiva analisar os desafios e contribuições da noção ‘criação de conceitos’ no pensamento de Gilles Deleuze para o ensino da filosofia. Apresentamos o ensino de filosofia no Brasil como um problema histórico e político, partindo dos pressupostos de que a instabilidade de inclusão e exclusão desse ensino foi o resultado dos interesses da ordem social vigente. Com a recente inserção da filosofia nos currículos de ensino das escolas de educação básica essa discussão passou a ser preocupação da comunidade filosófica, pelo fato de saber em que sentido o ensino da filosofia pode ser considerado o elemento da diferença na educação. Nesse sentido, procuramos mostrar outra via de conceber o ensino da filosofia, que é a proposta da filosofia como criação de conceitos da filosofia deleuzeana construindo um diálogo com o ensino da filosofia. Observamos que é um grande desafio para os professores de filosofia, construir a experiência da criação de conceitos em sala de aula, isso significa fazer do horizonte da repetição um ato de criação. No entanto, acreditamos que esse desafio nos permite pensar os problemas do momento atual e fazer dele a realização de algo novo para a educação e ao ensino da filosofia. Pensar o ensino da filosofia como criação de conceitos é fazer dos conteúdos, currículo e didática movimento de construção e desconstrução e, somente nessa direção podemos construir um novo aluno, uma nova aula, um novo professor e, por conseguinte, uma nova educação.
Resumo:
A presente Dissertação de Mestrado tem como objetivo o estudo do problema de inversão sísmica baseada em refletores planos para arranjo fonte-comum (FC) e ponto-médiocomum (PMC). O modelo direto é descrito por camadas homogêneas, isotrópicas com interfaces plano-horizontais. O problema é relacionado ao empilhamento NMO baseado na otimização da função semblance, para seções PMC corrigidas de sobretempo normal (NMO). O estudo foi baseado em dois princípios. O primeiro princípio adotado foi de combinar dois grupos de métodos de inversão: um Método Global e um Método Local. O segundo princípio adotado foi o de cascata, segundo a teoria Wichert-Herglotz-Bateman, que estabelece que para conhecer uma camada inferior tem-se que conhecer primeiro a camada superior (dissecação). A aplicação do estudo é voltada à simulação sísmica de Bacia Sedimentar do Solimões e de Bacia Marinha para se obter uma distribuição local 1D de velocidades e espessuras para a subsuperfície em horizontes alvo. Sendo assim, limitamos a inversão entre 4 e 11 refletores, uma vez que na prática a indústria limita uma interpretação realizada apenas em número equivalente de 3 a 4 refletores principais. Ressalta-se que este modelo é aplicável como condição inicial ao imageamento de seções sísmicas em regiões geologicamente complexas com variação horizontal suave de velocidades. Os dados sintéticos foram gerados a partir dos modelos relacionados a informações geológicas, o que corresponde a uma forte informação a priori no modelo de inversão. Para a construção dos modelos relacionados aos projetos da Rede Risco Exploratório (FINEP) e de formação de recursos humanos da ANP em andamento, analisamos os seguintes assuntos relevantes: (1) Geologia de bacias sedimentares terrestre dos Solimões e ma rinha (estratigráfica, estrutural, tectônica e petrolífera); (2) Física da resolução vertical e horizontal; e (3) Discretização temporal-espacial no cubo de multi-cobertura. O processo de inversão é dependente do efeito da discretização tempo-espacial do campo de ondas, dos parâmetros físicos do levantamento sísmico, e da posterior reamostragem no cubo de cobertura múltipla. O modelo direto empregado corresponde ao caso do operador do empilhamento NMO (1D), considerando uma topografia de observação plana. O critério básico tomado como referência para a inversão e o ajuste de curvas é a norma 2 (quadrática). A inversão usando o presente modelo simples é computacionalmente atrativa por ser rápida, e conveniente por permitir que vários outros recursos possam ser incluídos com interpretação física lógica; por exemplo, a Zona de Fresnel Projetada (ZFP), cálculo direto da divergência esférica, inversão Dix, inversão linear por reparametrização, informações a priori, regularização. A ZFP mostra ser um conceito út il para estabelecer a abertura da janela espacial da inversão na seção tempo-distância, e representa a influência dos dados na resolução horizontal. A estimativa da ZFP indica uma abertura mínima com base num modelo adotado, e atualizável. A divergência esférica é uma função suave, e tem base física para ser usada na definição da matriz ponderação dos dados em métodos de inversão tomográfica. A necessidade de robustez na inversão pode ser analisada em seções sísmicas (FC, PMC) submetida a filtragens (freqüências de cantos: 5;15;75;85; banda-passante trapezoidal), onde se pode identificar, comparar e interpretar as informações contidas. A partir das seções, concluímos que os dados são contaminados com pontos isolados, o que propõe métodos na classe dos considerados robustos, tendo-se como referência a norma 2 (quadrados- mínimos) de ajuste de curvas. Os algoritmos foram desenvolvidos na linguagem de programação FORTRAN 90/95, usando o programa MATLAB para apresentação de resultados, e o sistema CWP/SU para modelagem sísmica sintética, marcação de eventos e apresentação de resultados.
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
Coordenação de Aperfeiçoamento de Pessoal de Nível Superior (CAPES)
Resumo:
The search for international impact and the need to create formal or informal networks of academic cooperation are some of the most common features of the current training offered by many universities. Aware of this difficulty and the desirability of creating synergies to enrich teaching and academic collaboration networks between universities, an experience is presented, in the context of the teaching of Information and Documentation, of inter-university collaboration for the joint design of learning activities and skills assessment, developed by teachers in the public universities of Zaragoza and Salamanca (Spain) and the São Paulo Universidade Estadual Paulista Júlio de Mesquita Filho (São Paulo, Brazil). The experience is developed using models that facilitate the structuring of learning activities aimed at the acquisition of common skills. Each activity that is proposed and developed is recorded in a spreadsheet which collects the information arranged in various fields such as: description, skills, objectives, expected learning outcomes, tools, required resources and materials, evaluation criteria, amongst others, so that the student can see what he is asked to do, how to do it and how useful it will be. This way of designing skills-based learning activities is possible, in geographically diverse academic settings through the use of Information Technology and Communication, enabling both remote cooperation between teachers and also materials offered on the platforms of each of the universities.
Resumo:
This paper presents an assessment of an educational game for teaching the efficient use of electricity. Developed with Adobe Flash (R), it is a virtual board game where participants choose a car that starts the path and reaches the same final goal, going through a number of track steps defined in terms of a dice that each player rolls in turn. The car moves if the participant is able to correctly answer a question that is randomly generated by the software. The objective of the game is to answer questions related to energy efficiency promoting a healthy and attractive learning process for participants on concepts related to energy efficiency such as: the rational use of energy, the basic concepts of forms of energy generation, among others. The main objective of this paper is to assess the impact of the application of this virtual game in the teaching and learning process of high school students. Therefore, the game was applied in the discipline of physics in a class of junior high public school in the state of Sao Paulo. Initially, the class that had 43 students was divided into 10 groups of 4 students, and 1 group of 3 students. Each student group competed with one another. The idea was that each of them should indicate a student who was the representative of this group until only 4 group leaders were selected for the finals. At this stage, each student could interact with a group of up to ten students that acted as advisers. The adopted assessment process is based on the model proposed by Savi [7]. Then, at the end of the game, the students answered a prepared questionnaire based on the model proposed by Savi. According to Savi, although there are significant studies that show the importance of educational games for the process of cognitive development and learning concepts of students, there are few papers that present forms of assessing the potential of these resources. Thus, the assessment criteria proposed by Savi are based on the model of training evaluation by Kirkpatrick [3], taken as a reference to measure the efficiency of processes of continuing education courses for professionals. The authors assert that the metric of the evaluation proposed to assess the game is based on the first level of the model proposed by Kirkpatrick.
Resumo:
We know that play is directly linked to the development and growth of the child. Thinking in this context, were created recreational spaces, more known as playrooms or toy libraries. This research seeks to understand the playful objects used in more visits with children, realized CPA, FC UNESP - Bauru. Therefore, it was necessary to identify the objects necessary to the demands of users of CPA, they were psychology trainees, fellows extension projects, graduate students, teachers and the subjects treated population served. Composed over 1000 objects, the collection must be appropriate to the needs of the CPA. The research in question is characterized as a case study, is related to our shares a scholarship project Playing in the Center for Applied Psychology - CPA, held in the collection playful and Toy CPA, FC UNESP - Bauru, used, in this case, as a field for this research. Watching the playful collection, daily, some questions have arisen about this space became in this study. The data collection period was from September 2011 to September 2012. As an instrument for data collection was mounted a notebook control in order to check the movement of the objects of the collection, also applied a questionnaire to teachers and trainees working in the CPA. At the end of the study we can say that the symbolic games and rules are the objects that are related to care provided in the CPA because of its capabilities to assist in various aspects of the development of children, with the most frequently used symbolic games with children aged 2 to 7 years and the games rules with children aged 7-12 years or more
Resumo:
Pós-graduação em Educação para a Ciência - FC
Resumo:
Human beings' motor capacity development is essential, because it facilitates movement, enabling the performance of motor activities and others. In pre-school, boys and girls acquire the motor capacity development considered basic that, through several factors such as neurological maturation, which is in charge of providing more complete movements, and body growth, which has the goal of a better body domain, makes them improve individually the performance of motor abilities, but it can minimize them if laterality does not develop spontaneously. There by, this study focused on assessing the neurological development between genders of students engaging in fundamental school. Forty-three children of both genders at age six took part in this study. The evaluation occurred through the LEFÉVRE protocol (1976), which aims at assessing the maturity and development of the Nervous System through tests of the Evolutionary Neurological Exam (ENE), which comprises a series of tests involving specific tasks, regarding age in the static balance items, dynamic balance, appendicular coordination, trunk-member coordination, motor persistency, sensibility and synkinesis. Neurological development comparisons were performed between boys and girls for each item of the battery of tests. The results of the motor persistency and sensitiveness and sensorial activity tests were below the average for six-year-old children, but there was not any difference in gender comparison for each item of the battery of tests, only a small tendency for one of the genders, but meaningless, having a variance in only two tests of the synkinesis exam (Foot-hand and paper ball with the dominant hand), in which boys had a bigger percentage of synkinesis presence than girls did. The results also showed that the majority of the children assessed, both boys and girls have a right manual and pedal preference and the ocular laterality is approximately the same for left and right-handers. It was..
Resumo:
The need for renewable energy sources, facing the consequences of Climate Change, results in growing investment for solar collectors’ use. Research in this field has accompanied this expansion and evacuated tube solar collector stands as an important study focus. Thus, several works have been published for representing the stratification of the fluid inside the tubes and the reservoir, as well as analytical modeling for the heat flow problem. Based on recent publications, this paper proposes the study of solar water heating with evacuated tubes, their operation characteristics and operating parameters. To develop this work, a computational tool will be used - in this case, the application of computational fluid dynamics (CFD) software. In possession of the implemented model, a numerical simulation will be performed to evaluate the behavior of the fluid within this solar collector and possible improvements to be applied in the model.
Resumo:
Fundação de Amparo à Pesquisa do Estado de São Paulo (FAPESP)
Resumo:
Network virtualization is a promising technique for building the Internet of the future since it enables the low cost introduction of new features into network elements. An open issue in such virtualization is how to effect an efficient mapping of virtual network elements onto those of the existing physical network, also called the substrate network. Mapping is an NP-hard problem and existing solutions ignore various real network characteristics in order to solve the problem in a reasonable time frame. This paper introduces new algorithms to solve this problem based on 0–1 integer linear programming, algorithms based on a whole new set of network parameters not taken into account by previous proposals. Approximative algorithms proposed here allow the mapping of virtual networks on large network substrates. Simulation experiments give evidence of the efficiency of the proposed algorithms.
Resumo:
[EN] We analyze the discontinuity preserving problem in TV-L1 optical flow methods. This type of methods typically creates rounded effects at flow boundaries, which usually do not coincide with object contours. A simple strategy to overcome this problem consists in inhibiting the diffusion at high image gradients. In this work, we first introduce a general framework for TV regularizers in optical flow and relate it with some standard approaches. Our survey takes into account several methods that use decreasing functions for mitigating the diffusion at image contours. Consequently, this kind of strategies may produce instabilities in the estimation of the optical flows. Hence, we study the problem of instabilities and show that it actually arises from an ill-posed formulation. From this study, it is possible to come across with different schemes to solve this problem. One of these consists in separating the pure TV process from the mitigating strategy. This has been used in another work and we demonstrate here that it has a good performance. Furthermore, we propose two alternatives to avoid the instability problems: (i) we study a fully automatic approach that solves the problem based on the information of the whole image; (ii) we derive a semi-automatic approach that takes into account the image gradients in a close neighborhood adapting the parameter in each position. In the experimental results, we present a detailed study and comparison between the different alternatives. These methods provide very good results, especially for sequences with a few dominant gradients. Additionally, a surprising effect of these approaches is that they can cope with occlusions. This can be easily achieved by using strong regularizations and high penalizations at image contours.