923 resultados para processamento ceramico


Relevância:

10.00% 10.00%

Publicador:

Resumo:

O câncer de mama constitui-se no câncer mais frequente na população feminina mundial e brasileira. A quimioterapia antineoplásica encontra-se entre as formas de tratamento mais temidas pela mulher à medida que experimenta efeitos colaterais agressivos. O estudo tem como objetivos: identificar as repercussões corporais decorrentes do tratamento quimioterápico que são reconhecidas pelas mulheres; descrever os mecanismos de enfrentamento que a mulher com câncer de mama utiliza para lidar com essas repercussões; Analisar as repercussões corporais vivenciadas pelas mulheres com câncer de mama à luz da Teoria de Sister Callista Roy; apontar as ações de enfermagem reconhecidas pelas mulheres com câncer de mama relacionadas com a vivência das repercussões corporais. Trata-se de uma pesquisa de campo, de abordagem qualitativa. O estudo teve como cenário a Seção de Oncologia do Hospital Universitário Pedro Ernesto. Os sujeitos da pesquisa foram mulheres com câncer de mama com idade superior a 18 anos em tratamento na instituição. Foram observados os princípios da Resolução 196/96 do Conselho Nacional de Saúde. A coleta de dados se deu através de entrevista individual do tipo semiestruturada. O processamento e análise dos dados foram compostos pela transcrição e leitura das entrevistas, e alvo de reflexão à luz do referencial de análise de conteúdo de Bardin e Modelo Adaptativo de Roy. Foram identificadas as seguintes categorias: 1) alterações corporais decorrentes da doença e o tratamento, com as subcategorias: compreensão da mulher acerca da doença e tratamento, Sentimentos relacionados ao diagnóstico de câncer e os efeitos colaterais do tratamento; 2) enfrentando o câncer de mama e seu tratamento; 3) a meta da enfermagem: promoção da adaptação da mulher com câncer de mama. Os resultados demonstraram uma relação próxima entre os achados e a Teoria de Sister Callista Roy.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho expõe a consolidação do direito à verdade pelo Direito Internacional e a complementaridade entre as comissões da verdade e os tribunais, mecanismos de justiça de transição, como a combinação que melhor lhe confere aplicabilidade. Primeiramente, a tese reivindica que a transição e a consolidação democrática devem se dar por meio da prestação de contas com o passado, o que se torna possível na medida em que se promoveram a partir da 2a Guerra Mundial significativas alterações no Direito Internacional, que se afasta do paradigma vesfaliano de soberania. Aborda-se assim o excepcional desenvolvimento do Direito Internacional dos Direitos Humanos, do Direito Internacional Humanitário e do Direito Penal Internacional, centralizados na ideia de responsabilidade. A tese também abrange o desenvolvimento do direito à verdade no seio da Organização das Nações Unidas e dos sistemas regionais de proteção de direitos humanos, tendo alcançado o status de norma imperativa ou peremptória, sendo explorados os obstáculos ao seu exercício como no caso de anistias e outras medidas similiares como a prescrição, a justiça militar e a coisa julgada. Enfrentam-se, ainda, as potencialidades e limites da verdade que resulta de comissões da verdade e dos tribunais, concebida esta como conhecimento sobre os fatos e o reconhecimento da responsabilidade pelo ocorrido. O trabalho aborda temas como a independência e imparcialidade das comissões de verdade, seus poderes e o alcance de suas conclusões e recomendações. Por sua vez, com vistas a identificar as verdades a serem alcançadas pelos tribunais, privilegia-se o processo criminal, por se entender que a sentença penal pressupõe o exercício mais completo do devido processo. A imperatividade do direito à verdade é também demonstrada pela defesa da participação da vítima no processo criminal e da admissão de culpa por parte do acusado -- ambos consagrados pelo Tratado de Roma. Por fim, a tese analisa alguns cenários para a complementaridade entre estes dois mecanismos de justiça de transição, fazendo o estudo dos casos do Chile, Peru, Serra Leoa e Quênia, casos estes permeados pelo Direito Internacional, seja pela influência da jurisdição universal ou pelo impacto da jurisdição internacional. O caso brasileiro, por certo, não se ajusta a nenhum destes cenários. Sua caracterização como um diálogo em aberto, para efeitos deste trabalho, pressupõe que o Brasil encontra-se em um importante momento de decisão sobre a complementaridade entre comissões da verdade e tribunais - a recente aprovação da Comissão Nacional da Verdade deve conviver com o aparente conflito entre a decisão do Supremo Tribunal Federal, que afirmou a constitucionalidade da Lei de Anistia de 1979, e a decisão da Corte Interamericana no caso Araguaia, que entende nulos os dispositivos da lei que obstaculizam o processamento dos responsáveis, ambas no ano de 2010 - com a oportunidade de demonstrar que a passagem do tempo não arrefece as obrigações a que se comprometeu no cenário internacional.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A presente pesquisa tem como objetivo geral analisar as representações sociais da hierarquia construídas pelos militares da FAB, considerando suas segmentações em termos dos círculos de oficiais e graduados, dos respectivos processos de formação, dos sexos de seus componentes e dos estágios, se formados ou em formação, em que se encontram. A fundamentação teórica discorre sobre a hierarquia, princípio geral das instituições militares, previsto por lei e regulador do comportamento militar, conforme prevê o Estatuto dos Militares (BRASIL, 1980); a respeito do poder, na perspectiva de Max Weber (1999) que trata a obediência, a partir da autoridade de uma pessoa sobre outras, e de acordo com Amitai Etzioni (1974), que entende o poder como a capacidade que uma pessoa tem de induzir outra a seguir suas orientações. Apresenta ainda a Teoria das Representações Sociais, proposta por Serge Moscovici (1961), para quem as representações sociais servem de instrumento de leitura da realidade, e a partir da abordagem estrutural, proposta por Jean-Claude Abric (1976), segundo a qual a representação social é composta pelo sistema central, constituído pelo núcleo central, e pelo sistema periférico, formado por elementos periféricos. A amostra foi composta por 600 militares, oriundos das escolas de formação de oficiais e de graduados, do âmbito do Comando da Aeronáutica (COMAER): Academia da Força Aérea (AFA), cuja finalidade é a formação dos Oficiais da Ativa dos quadros de Aviação, de Intendência e de Infantaria, a Escola de Especialistas da Aeronáutica (EEAR), responsável pela formação e pelo aperfeiçoamento dos graduados e o Centro de Instrução Especializada da Aeronáutica (CIEAR), responsável pela capacitação de oficiais e graduados em áreas afins à sua especialização. A coleta de dados foi realizada por meio da técnica de evocação livre ao termo indutor hierarquia, da aplicação do questionário de caracterização e do questionário geral, composto por questões abertas e fechadas. As evocações foram processadas pelo software EVOC, desenvolvido por Pierre Vergès (2005), as questões fechadas receberam o processamento com o auxílio do software SPSS e as questões abertas sofreram uma categorização para o refinamento das análises. Os resultados encontrados nas comparações do conteúdo temático e da estrutura das representações sociais entre os diferentes segmentos permitem afirmar que os temas respeito e disciplina são os prováveis elementos centrais da hierarquia para o conjunto dos 600 militares pesquisados e caracterizam a base comum e consensual compartilhada na caserna. A hierarquia, norteada por um conjunto de regras que regula e assegura a disciplina e o respeito, direciona o comportamento dos militares, durante a formação e no decorrer da carreira. Da análise, conclui-se que os diferentes segmentos de militares da FAB possuem a mesma representação social de hierarquia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Pesquisas sobre a situação de leitura dos nossos alunos apontam que a maioria não tem proficiência leitora. O problema ganha amplitude quando resultados de avaliações externas elaboradas pelo governo federal são divulgados, dentre eles os da Prova Brasil. Essas avaliações da Educação Básica têm provocado muitas discussões em vários níveis, visto que promovem um retorno de ordem quantitativa, porque controlam o percentual de acertos das questões. Um destes níveis é o organizacional, já que tais avaliações apontam para os possíveis problemas do fazer pedagógico. Esse quadro aliado aos resultados insatisfatórios do município de Duque de Caxias na Prova Brasil motivou a elaboração do Projeto Con-seguir e da Prova Caxias, com o intuito de diagnosticar tais problemas. Este estudo debruça-se sobre a compreensão leitora, tratando especificamente da compreensão leitora dos alunos da rede municipal de educação da Prefeitura de Duque de Caxias em questões que possuem tiras em quadrinhos. Analisamos as questões com tiras na Prova Caxias à luz da Linguística Cognitiva assim como o desempenho dos alunos da rede nessas questões. De caráter eminentemente qualitativo, a análise tem como unidades de análise os conceitos de mescla e de modelos cognitivos idealizados, acompanhada por parâmetros quantitativos relacionados ao desempenho dos alunos na Prova Caxias. Além da análise de questões e quantificação dos resultados da prova em tela, recorremos também à aplicação de questionário investigativo a sete professores da rede, todos da educação básica do município. O propósito foi analisar suas práticas pedagógicas no ensino-aprendizagem de leitura, tratando especificamente do gênero história em quadrinhos. Suas respostas foram analisadas por meio do conceito de categorização por prototipicidade. A análise realizada revela que os principais problemas na compreensão leitora advêm do processamento metafórico (LAKOFF ; JOHNSON, 2002) e da construção de mesclas (FAUCONNIER ; TURNER, 2002) exigidos por esse gênero. Dentre as contribuições do estudo, destacamos o conhecimento construído sobre o processo de construção de sentido em questões de histórias em quadrinhos pelos alunos de Duque de Caxias e a análise crítica sobre das práticas de leitura no ambiente escolar deste mesmo contexto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O aço inoxidável hiperduplex, SAF 2707 HD, foi desenvolvido com o intuito de se obter novas ligas com maior resistência à corrosão do que a disponível nos aços inoxidáveis duplex / superduplex. Além da melhorada resistência à corrosão, este tb oferece propriedades mecânicas superiores. Os aços hiperduplex são aços de última geração que possuem elevados teores de elementos de liga, principalmente cromo, molibdênio e nitrogênio. Este tipo de aço caracteriza-se por apresentar estrutura bifásica, constituída de proporções praticamente iguais de ferrita e austenita devido à distribuição controlada dos elementos alfagênicos e gamagênicos. O interesse por esses aços cresce gradativamente com a necessidade de novos materiais para diversas aplicações na indústria petrolífera. Porém, quando expostos e mantidos a temperaturas elevadas, na faixa entre 600C e 1000C, algumas fases intermetálicas podem se formar, em que a fase sigma () é a mais proeminente. Possui uma estrutura cristalina tetragonal complexa rica em Cr e Mo, tendo efeito deletério no material afetando tanto a resistência à corrosão, quanto as propriedades mecânicas. Para este fim, faz-se necessário estudos da junta soldada para delinear as limitações desses aços e aperfeiçoar a aplicação. Essa pesquisa teve como objetivo caracterizar a junta soldada por TIG autógeno manual com arco pulsado e não pulsado do aço inoxidável hiperduplex SAF 2707 HD. As técnicas empregadas foram a metalografia por ataque eletrolítico (reagente NaOH) e color etching (reagente Behara), medidas de microdureza e quantificação microestrutural por Processamento Digital de Imagem. Os aspectos microestruturais foram observados por microscopia óptica (MO) e microscopia eletrônica de varredura (MEV), estes passaram por etapas de processamento digital de imagens (PDI) para quantificar a fração volumétrica da fase austenita. Realizou-se análise química semi-quatitativa por EDS. Os resultados foram analisados estatisticamente através do teste de hipóteses com distribuição t de Student. Pela técnica color etching observou-se que a fase austenita foi gerada com distribuição mais homogênea para o arco pulsado, que o não pulsado. O ataque eletrolítico não revelou uma terceira fase (fase ) na junta soldada, a análise química por EDS não identificou uma variação significativa nos elementos presentes ao longo da zona de transição do metal de base para a zona de fusão. Através do PDI foram obtidos os valores médios da fração volumétrica de austenita de 36,38% (desvio padrão 6,40%) e 32,41% (desvio padrão 6,67%) para os dois métodos, pulsado e não pulsado, respectivamente. Foram obtidos os valores de microdureza para o metal de base 355,10 HV (desvio padrão 28,60) e para a zona de fusão 343,60 HV (desvio padrão 20,51) da amostra soldada pelo modo pulsado, para o modo não pulsado foram apresentaram os valores médios de 370,30 HV (desvio padrão 34,51) para o metal de base e de 345,20 HV (desvio padrão 41,33) para a zona de fusão. A análise estatística indicou que não houve variação significativa da fração volumétrica da fase austenita no cordão de solda para as duas condições testadas e não houve variação da microdureza entre a zona de fusão e o metal de solda das amostras submetidas aos dois processos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A anecencefalia é o Defeito do Tubo Neural (DTN) mais severo em fetos humanos. Há uma demanda crescente para reposição tissular em doenças crônicas e cirurgias reconstrutoras. Tecidos fetais têm sido utilizados como substitutos para órgãos sólidos. Comparar a estrutura e morfologia do corpo cavernoso e corpo esponjoso de pênis de fetos humanos anencéfalos e de controle a fim de propor um novo modelo para estudos biológicos e transplantes teciduais. Foram estudados 11 pênis de fetos de controle de 14 a 23 Semanas Pós Concepção (SPC), e cinco pênis de fetos anencéfalos de 18 a 22 SPC. Os órgãos foram removidos e processados pelas técnicas histo e imunohistoquímicas rotineiras. A análise do tecido conjuntivo, células musculares lisas e fibras elásticas foram realizadas em lâminas dos espécimes. Os dados foram expressos em Densidade de àrea (Da) utilizando-se um software de processamento digital. As médias foram comparadas utilizando-se o Teste - T não pareado e quando aplicável, a regressão linear simples foi utilizada. Foi considerada significância estatística se p<0,05. O septo intercavernoso encontrava-se presente em todas as amostras. Não foram observadas diferenças da Da do tecido colágeno e musculatura lisa dos pênis de fetos anencéfalos quando comparados aos normais. A regressão linear simples sugere que durante o desenvolvimento humano há um aumen2to gradual do tecido colágeno (R2=0,45) e uma diminuição da musculatura lisa (R =0,62) no corpo cavernoso de ambos os grupos. A elastina encontrava-se presente apenas em fetos a partir da 20 SPC. Não houve diferença na estrutura da genitália entre fetos normais e enencéfalos. Apresença da elastina em fetos a partir da 20 SPC é um dado objetivo da manutenção da capacidade de ereção nestes grupos. A histo e imunohistoquímica sugerem que o desenvolvimento do pênis destes fetos encontra-se inalterado. Futuros estudos deverão ser realizados com o objetivo de avaliar fetos anencéfalos como um potencial grupo de doadores teciduais e um adequado modelo para estudos biológicos.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nas gramáticas tradicionais da língua portuguesa, o estudo sobre a antonomásia, figura de linguagem que designa o processo de passagem de um nome próprio a um nome comum e vice-versa, é visto ora ligado ao conceito de metáfora, ora ligado à relação parte- todo, isto é, à metonímia. Na maioria das vezes, os exemplos mostrados nessas abordagens tradicionais estão descontextualizados, ou seja, não são retirados de um emprego discursivo- dialógico da língua. O principal objetivo desta tese é fazer uma reflexão sobre o potencial semiótico- funcional e cognitivo dos nomes próprios nas antonomásias discursivas, ou seja, aquelas que ainda não estão dicionarizadas, porque são temporárias, e, consequentemente, sua interpretação pertence ao âmbito do processamento discursivo. Tendo como base teórica a teoria dos Espaços Mentais em seu segundo momento, reconhecida como teoria da Integração Conceptual (FAUCONNIER; TURNER, 2002), e a teoria da Iconicidade Verbal, desenvolvida por Simões (2009), baseada nos estudos semióticos de Charles Sanders Peirce, analisar-se-ão, nesta tese, os seguintes aspectos do nome próprio nas antonomásias discursivas: a forma do nome próprio, ou seja, sua plasticidade, que é a característica central da iconicidade diagramática, e a iconicidade isotópica, que age como uma espécie de condutor temático para a formação de sentido de um texto. Esses dois tipos de iconicidade se inserem numa rede mais ampla de signos denominada iconicidade verbal, ou lexical (SIMÕES, 2004), que abrange efeitos tanto de ordem discursiva (discursivização) como de ordem estilística. Assim, ao se conceber o estudo das antonomásias discursivas do nome próprio em uma perspectiva semiótico- discursiva e cognitiva, ter-se-á dado mais um passo nos estudos dos itens lexicais que atuam como organizadores de sentido de um texto

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta pesquisa investigou a formação de depósitos arenosos localizados na planície costeira da Baixada de Sepetiba, em Itaguaí, estado do Rio de Janeiro. A deposição sedimentar e a evolução desta área, na Baixada de Sepetiba tem sido estudada nas três últimas décadas, principalmente, porque é um ambiente de depósitos arenosos antigo de idade Holocênica a Pleistocênica que corresponde a uma linha de praia, originada com eventos transgressivos e/ou regressivos que tiveram seu ápice durante o Quaternário. A metodologia de Radar de Penetração no Solo (GPR) é usada, principalmente nos casos de trabalho em que se estuda um ambiente costeiro arenoso. Este campo da Geofísica tem sido usado para examinar características, tais como: a espessura de depósitos arenosos, a profundidade de um aqüífero, a detecção de uma rocha ou um aqüífero, e determina a direção de progradação. Esta pesquisa usa técnicas de radar de penetração no solo (GPR) para analisar as estruturas, em subsuperfície desde que o ambiente estudado seja definido como linha de costa, as margens de uma lagoa mixohalina, chamada Baía de Sepetiba. Neste trabalho realizamos um total de 11 perfis, que foram processados pelo software ReflexWin. Durante o processamento do dado aplicamos alguns filtros, tais como: subtract-mean (dewow), bandpassfrequency e ganhos. E as melhores imagens dos perfis foram realizadas usando-se uma antena de 200 MHz (canal 1) e outra antena de 80 MHz. Neste caso, obtivemos imagens de alta resolução a uma profundidade de até 25 metros.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta tese propôs uma metodologia para detecção de áreas susceptíveis a deslizamentos de terra a partir de imagens aéreas, culminando no desenvolvimento de uma ferramenta computacional, denominada SASD/T, para testar a metodologia. Para justificar esta pesquisa, um levantamento sobre os desastres naturais da história brasileira relacionada a deslizamentos de terra e as metodologias utilizadas para a detecção e análise de áreas susceptíveis a deslizamentos de terra foi realizado. Estudos preliminares de visualização 3D e conceitos relacionados ao mapeamento 3D foram realizados. Estereoscopia foi implementada para visualizar tridimensionalmente a região selecionada. As altitudes foram encontradas através de paralaxe, a partir dos pontos homólogos encontrados pelo algoritmo SIFT. Os experimentos foram realizados com imagens da cidade de Nova Friburgo. O experimento inicial mostrou que o resultado obtido utilizando SIFT em conjunto com o filtro proposto, foi bastante significativo ao ser comparado com os resultados de Fernandes (2008) e Carmo (2010), devido ao número de pontos homólogos encontrados e da superfície gerada. Para detectar os locais susceptíveis a deslizamentos, informações como altitude, declividade, orientação e curvatura foram extraídas dos pares estéreos e, em conjunto com as variáveis inseridas pelo usuário, forneceram uma análise de quão uma determinada área é susceptível a deslizamentos. A metodologia proposta pode ser estendida para a avaliação e previsão de riscos de deslizamento de terra de qualquer outra região, uma vez que permite a interação com o usuário, de modo que este especifique as características, os itens e as ponderações necessárias à análise em questão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação aborda a questão da transferência entre línguas na aquisição de segunda língua/língua estrangeira (L2/FL), mais especificamente, a influência do Português Brasileiro (PB) como língua materna (L1) na aquisição de inglês como L2/FL no que diz respeito ao preenchimento da posição de sujeito pronominal. Esse fenômeno é investigado à luz da teoria linguística gerativista nos moldes do Programa Minimalista (CHOMSKY, 1995) e da psicolinguística, no âmbito das questões de aquisição de L2/FL, ciência responsável por fornecer modelos procedimentais de como a produção e a compreensão de sentenças podem ser entendidas. A discussão sobre o modo como se dá a aquisição de L2 tem se mostrado complexa na literatura. O PB e o inglês diferem em relação à satisfação do traço EPP, responsável pelo preenchimento da posição de sujeito sintático nas línguas naturais. O PB tem se aproximado do inglês quanto ao preenchimento de sujeitos referenciais, mas não no que concerne aos sujeitos expletivos, apresentando ainda construções de tópico-sujeito, características que podem interferir na aquisição do valor paramétrico negativo para sujeitos nulos no inglês. A fim de investigar as mudanças que vêm afetando o PB nesse âmbito e observar o quanto aprendizes de inglês como FL falantes de PB se mostram sensíveis à agramaticalidade de sentenças com sujeito nulo no inglês em diferentes contextos, foram realizados dois experimentos, ambos com uma tarefa de julgamento de gramaticalidade. O experimento piloto foi realizado com aprendizes dos níveis básico e avançado e apresentava dois tipos distintos de sentenças (Tipo 1: sujeito nulo e Tipo 2: tópico + sujeito nulo); e um experimento final com aprendizes dos níveis básico, intermediário e avançado, com três tipos de sentenças (Tipo 1: sujeito nulo, Tipo 2: tópico + sujeito nulo e Tipo 3: conjunção + sujeito nulo). Dada a complexidade da gramática do PB, nossa hipótese de trabalho é de que não se observe uma transferência total, mas o surgimento de uma interlíngua que ora se aproxima, ora se afasta da gramática-alvo, refletindo a sobrecarga de processamento que lidar com as duas gramáticas impõe. Os resultados sustentam a hipótese ao indicar que (i) o valor do parâmetro do sujeito nulo parece ser transferido da L1 para a L2, uma vez que foi encontrado um alto número de respostas incorretas; (ii) a interferência se dá mais fortemente no âmbito dos sujeitos expletivos; (iii) há interferência de restrições gerais da gramática da L1 (restrições a V1) na L2; e (iv) a interferência diminui em função do aumento da proficiência em L2. Além disso, nas sentenças do tipo 2, parece haver uma possível interferência do PB que acaba por mascarar a omissão do expletivo, o que indica uma dificuldade de integração de informações provenientes das limitações decorrentes da necessidade de processar duas línguas em momentos específicos de modo a evitar a interferência da língua indesejada, no caso a L1, que por ainda ser dominante exige mais recursos para ser inibida (SORACE, 1999, 2011).