120 resultados para Processamento sísmico
Resumo:
Nas gramáticas tradicionais da língua portuguesa, o estudo sobre a antonomásia, figura de linguagem que designa o processo de passagem de um nome próprio a um nome comum e vice-versa, é visto ora ligado ao conceito de metáfora, ora ligado à relação parte- todo, isto é, à metonímia. Na maioria das vezes, os exemplos mostrados nessas abordagens tradicionais estão descontextualizados, ou seja, não são retirados de um emprego discursivo- dialógico da língua. O principal objetivo desta tese é fazer uma reflexão sobre o potencial semiótico- funcional e cognitivo dos nomes próprios nas antonomásias discursivas, ou seja, aquelas que ainda não estão dicionarizadas, porque são temporárias, e, consequentemente, sua interpretação pertence ao âmbito do processamento discursivo. Tendo como base teórica a teoria dos Espaços Mentais em seu segundo momento, reconhecida como teoria da Integração Conceptual (FAUCONNIER; TURNER, 2002), e a teoria da Iconicidade Verbal, desenvolvida por Simões (2009), baseada nos estudos semióticos de Charles Sanders Peirce, analisar-se-ão, nesta tese, os seguintes aspectos do nome próprio nas antonomásias discursivas: a forma do nome próprio, ou seja, sua plasticidade, que é a característica central da iconicidade diagramática, e a iconicidade isotópica, que age como uma espécie de condutor temático para a formação de sentido de um texto. Esses dois tipos de iconicidade se inserem numa rede mais ampla de signos denominada iconicidade verbal, ou lexical (SIMÕES, 2004), que abrange efeitos tanto de ordem discursiva (discursivização) como de ordem estilística. Assim, ao se conceber o estudo das antonomásias discursivas do nome próprio em uma perspectiva semiótico- discursiva e cognitiva, ter-se-á dado mais um passo nos estudos dos itens lexicais que atuam como organizadores de sentido de um texto
Resumo:
Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.
Resumo:
Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.
Resumo:
Esta pesquisa investigou a formação de depósitos arenosos localizados na planície costeira da Baixada de Sepetiba, em Itaguaí, estado do Rio de Janeiro. A deposição sedimentar e a evolução desta área, na Baixada de Sepetiba tem sido estudada nas três últimas décadas, principalmente, porque é um ambiente de depósitos arenosos antigo de idade Holocênica a Pleistocênica que corresponde a uma linha de praia, originada com eventos transgressivos e/ou regressivos que tiveram seu ápice durante o Quaternário. A metodologia de Radar de Penetração no Solo (GPR) é usada, principalmente nos casos de trabalho em que se estuda um ambiente costeiro arenoso. Este campo da Geofísica tem sido usado para examinar características, tais como: a espessura de depósitos arenosos, a profundidade de um aqüífero, a detecção de uma rocha ou um aqüífero, e determina a direção de progradação. Esta pesquisa usa técnicas de radar de penetração no solo (GPR) para analisar as estruturas, em subsuperfície desde que o ambiente estudado seja definido como linha de costa, as margens de uma lagoa mixohalina, chamada Baía de Sepetiba. Neste trabalho realizamos um total de 11 perfis, que foram processados pelo software ReflexWin. Durante o processamento do dado aplicamos alguns filtros, tais como: subtract-mean (dewow), bandpassfrequency e ganhos. E as melhores imagens dos perfis foram realizadas usando-se uma antena de 200 MHz (canal 1) e outra antena de 80 MHz. Neste caso, obtivemos imagens de alta resolução a uma profundidade de até 25 metros.
Resumo:
Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.
Resumo:
Esta tese propôs uma metodologia para detecção de áreas susceptíveis a deslizamentos de terra a partir de imagens aéreas, culminando no desenvolvimento de uma ferramenta computacional, denominada SASD/T, para testar a metodologia. Para justificar esta pesquisa, um levantamento sobre os desastres naturais da história brasileira relacionada a deslizamentos de terra e as metodologias utilizadas para a detecção e análise de áreas susceptíveis a deslizamentos de terra foi realizado. Estudos preliminares de visualização 3D e conceitos relacionados ao mapeamento 3D foram realizados. Estereoscopia foi implementada para visualizar tridimensionalmente a região selecionada. As altitudes foram encontradas através de paralaxe, a partir dos pontos homólogos encontrados pelo algoritmo SIFT. Os experimentos foram realizados com imagens da cidade de Nova Friburgo. O experimento inicial mostrou que o resultado obtido utilizando SIFT em conjunto com o filtro proposto, foi bastante significativo ao ser comparado com os resultados de Fernandes (2008) e Carmo (2010), devido ao número de pontos homólogos encontrados e da superfície gerada. Para detectar os locais susceptíveis a deslizamentos, informações como altitude, declividade, orientação e curvatura foram extraídas dos pares estéreos e, em conjunto com as variáveis inseridas pelo usuário, forneceram uma análise de quão uma determinada área é susceptível a deslizamentos. A metodologia proposta pode ser estendida para a avaliação e previsão de riscos de deslizamento de terra de qualquer outra região, uma vez que permite a interação com o usuário, de modo que este especifique as características, os itens e as ponderações necessárias à análise em questão.
Resumo:
No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
Esta dissertação aborda a questão da transferência entre línguas na aquisição de segunda língua/língua estrangeira (L2/FL), mais especificamente, a influência do Português Brasileiro (PB) como língua materna (L1) na aquisição de inglês como L2/FL no que diz respeito ao preenchimento da posição de sujeito pronominal. Esse fenômeno é investigado à luz da teoria linguística gerativista nos moldes do Programa Minimalista (CHOMSKY, 1995) e da psicolinguística, no âmbito das questões de aquisição de L2/FL, ciência responsável por fornecer modelos procedimentais de como a produção e a compreensão de sentenças podem ser entendidas. A discussão sobre o modo como se dá a aquisição de L2 tem se mostrado complexa na literatura. O PB e o inglês diferem em relação à satisfação do traço EPP, responsável pelo preenchimento da posição de sujeito sintático nas línguas naturais. O PB tem se aproximado do inglês quanto ao preenchimento de sujeitos referenciais, mas não no que concerne aos sujeitos expletivos, apresentando ainda construções de tópico-sujeito, características que podem interferir na aquisição do valor paramétrico negativo para sujeitos nulos no inglês. A fim de investigar as mudanças que vêm afetando o PB nesse âmbito e observar o quanto aprendizes de inglês como FL falantes de PB se mostram sensíveis à agramaticalidade de sentenças com sujeito nulo no inglês em diferentes contextos, foram realizados dois experimentos, ambos com uma tarefa de julgamento de gramaticalidade. O experimento piloto foi realizado com aprendizes dos níveis básico e avançado e apresentava dois tipos distintos de sentenças (Tipo 1: sujeito nulo e Tipo 2: tópico + sujeito nulo); e um experimento final com aprendizes dos níveis básico, intermediário e avançado, com três tipos de sentenças (Tipo 1: sujeito nulo, Tipo 2: tópico + sujeito nulo e Tipo 3: conjunção + sujeito nulo). Dada a complexidade da gramática do PB, nossa hipótese de trabalho é de que não se observe uma transferência total, mas o surgimento de uma interlíngua que ora se aproxima, ora se afasta da gramática-alvo, refletindo a sobrecarga de processamento que lidar com as duas gramáticas impõe. Os resultados sustentam a hipótese ao indicar que (i) o valor do parâmetro do sujeito nulo parece ser transferido da L1 para a L2, uma vez que foi encontrado um alto número de respostas incorretas; (ii) a interferência se dá mais fortemente no âmbito dos sujeitos expletivos; (iii) há interferência de restrições gerais da gramática da L1 (restrições a V1) na L2; e (iv) a interferência diminui em função do aumento da proficiência em L2. Além disso, nas sentenças do tipo 2, parece haver uma possível interferência do PB que acaba por mascarar a omissão do expletivo, o que indica uma dificuldade de integração de informações provenientes das limitações decorrentes da necessidade de processar duas línguas em momentos específicos de modo a evitar a interferência da língua indesejada, no caso a L1, que por ainda ser dominante exige mais recursos para ser inibida (SORACE, 1999, 2011).
Resumo:
Introdução: A preocupação em torno do uso irracional de psicofármacos tem sido observada em diversos países, constituindo-se uma questão importante para a saúde pública mundial. No Brasil, a promoção do uso racional de psicofármacos é um desafio para a atenção primária, sendo importante caracterizar sua dimensão psicossocial. Objetivos. O artigo 1, com características descritivas, tem como objetivo caracterizar o uso de psicofármacos em unidades de saúde da família segundo a presença de transtornos mentais comuns (TMC) e segundo as principais características socioeconômicas e demográficas. O artigo 2, com um caráter analítico, tem como objetivo avaliar o papel da rede social no uso de cada um destes psicofármacos segundo a presença de TMC. Métodos O estudo utiliza um delineamento seccional e abarca a primeira fase de coleta de dados de dois estudos em saúde mental na atenção primária. Esta se deu em 2006/2007 para o estudo 1 (Petrópolis, n= 2.104) e em 2009/2010 para o estudo2 (São Paulo, n =410, Rio de Janeiro, n= 703, Fortaleza , n=149 e Porto Alegre, n= 163 participantes). Ambos os estudos possuem o mesmo formato no que se refere à coleta de dados, seu processamento e revisão, resultando em uma amostra de 3.293 mulheres atendidas em unidades de saúde da família de cinco diferentes cidades do país. Um questionário objetivo com perguntas fechadas foi utilizado para a coleta de informações socioeconômicas e demográficas. O uso de psicofármacos foi avaliado através de uma pergunta aberta baseada no auto-relato do uso de medicamentos. A presença de TMC foi investigada através do General Health Questionnaire, em sua versão reduzida (GHQ-12). O nível de integração social foi aferido através do índice de rede social (IRS), calculado a partir de perguntas sobre rede social acrescentado ao questionário geral. No estudo descritivo (artigo 1), a frequência do uso de antidepressivos e o uso de benzodiazepínicos na população de estudo foram calculadas para cada cidade, tal como a frequência do uso destes psicofármacos entre as pacientes com transtornos mentais comuns. A distribuição do uso de cada um destes psicofármacos segundo as principais características socioeconômicas, demográficas e segundo transtornos mentais comuns foi avaliada através do teste de qui-quadrado de Pearson. No estudo analítico (artigo 2), a associação entre o nível de integração social e o uso exclusivo de cada um dos psicofármacos foi analisada através da regressão logística multivariada, com estratificação segundo a presença de TMC. Resultados: A frequência do uso de psicofármacos foi bastante heterogênea entre as cidades, destacando-se, porém, a importância do uso de benzodiazepínicos frente ao uso de antidepressivos em sua maioria. A proporção do uso de psicofármacos, sobretudo antidepressivos, foi predominantemente baixa entre as pacientes com TMC. Entre elas, o uso de antidepressivos mostrou-se positivamente associado ao isolamento social, enquanto o uso de benzodiazepínicos associou-se negativamente a este. Conclusão: Os resultados colaboram para a caracterização do uso de psicofármacos em unidades de saúde da família e para a discussão acerca de sua racionalidade. Destaca-se a importância de avaliar a dimensão psicossocial que envolve o uso destas substâncias com vistas ao desenvolvimento de estratégias de cuidado mais efetivas
Resumo:
A discriminação de fases que são praticamente indistinguíveis ao microscópio ótico de luz refletida ou ao microscópio eletrônico de varredura (MEV) é um dos problemas clássicos da microscopia de minérios. Com o objetivo de resolver este problema vem sendo recentemente empregada a técnica de microscopia colocalizada, que consiste na junção de duas modalidades de microscopia, microscopia ótica e microscopia eletrônica de varredura. O objetivo da técnica é fornecer uma imagem de microscopia multimodal, tornando possível a identificação, em amostras de minerais, de fases que não seriam distinguíveis com o uso de uma única modalidade, superando assim as limitações individuais dos dois sistemas. O método de registro até então disponível na literatura para a fusão das imagens de microscopia ótica e de microscopia eletrônica de varredura é um procedimento trabalhoso e extremamente dependente da interação do operador, uma vez que envolve a calibração do sistema com uma malha padrão a cada rotina de aquisição de imagens. Por esse motivo a técnica existente não é prática. Este trabalho propõe uma metodologia para automatizar o processo de registro de imagens de microscopia ótica e de microscopia eletrônica de varredura de maneira a aperfeiçoar e simplificar o uso da técnica de microscopia colocalizada. O método proposto pode ser subdividido em dois procedimentos: obtenção da transformação e registro das imagens com uso desta transformação. A obtenção da transformação envolve, primeiramente, o pré-processamento dos pares de forma a executar um registro grosseiro entre as imagens de cada par. Em seguida, são obtidos pontos homólogos, nas imagens óticas e de MEV. Para tal, foram utilizados dois métodos, o primeiro desenvolvido com base no algoritmo SIFT e o segundo definido a partir da varredura pelo máximo valor do coeficiente de correlação. Na etapa seguinte é calculada a transformação. Foram empregadas duas abordagens distintas: a média ponderada local (LWM) e os mínimos quadrados ponderados com polinômios ortogonais (MQPPO). O LWM recebe como entradas os chamados pseudo-homólogos, pontos que são forçadamente distribuídos de forma regular na imagem de referência, e que revelam, na imagem a ser registrada, os deslocamentos locais relativos entre as imagens. Tais pseudo-homólogos podem ser obtidos tanto pelo SIFT como pelo método do coeficiente de correlação. Por outro lado, o MQPPO recebe um conjunto de pontos com a distribuição natural. A análise dos registro de imagens obtidos empregou como métrica o valor da correlação entre as imagens obtidas. Observou-se que com o uso das variantes propostas SIFT-LWM e SIFT-Correlação foram obtidos resultados ligeiramente superiores aos do método com a malha padrão e LWM. Assim, a proposta, além de reduzir drasticamente a intervenção do operador, ainda possibilitou resultados mais precisos. Por outro lado, o método baseado na transformação fornecida pelos mínimos quadrados ponderados com polinômios ortogonais mostrou resultados inferiores aos produzidos pelo método que faz uso da malha padrão.
Resumo:
A afasiologia linguística, enquanto ramo da Linguística, contribui para a verificação dos pressupostos da Teoria Gerativa e para a classificação e descrição das particularidades linguísticas características dos diferentes tipos de afasias. Neste contexto, os problemas com a produção de estruturas complexas, como é o caso das interrogativas, têm sido tema de muitos estudos em diversas línguas. Entretanto, os benefícios que tais pesquisas podem oferecer no sentido de melhorar o cotidiano dos sujeitos de pesquisa raramente são abordados. Com o intuito de atuar sobre esta lacuna, a presente dissertação tem como objetivo geral fornecer um roteiro de pesquisa com sugestões de intervenção de base linguística no tratamento fonoaudiológico de um indivíduo afásico, proporcionando, desta forma, melhora do cotidiano do afásico em seu ambiente familiar. A hipótese que orienta este trabalho é a de que a aplicação de um roteiro de pesquisa linguística descentralizado e desverticalizado sobre o tratamento da afasia pode proporcionar melhorias no cotidiano familiar do paciente acometido pelo déficit. Para desenvolver o roteiro em questão, foram escolhidas as interrogativas-QU como tópico linguístico. O roteiro, todavia, foi desenvolvido para que qualquer outro tópico linguístico, identificado como problemático e passível de tratamento específico, seja aplicável ao esquema. Como objetivo subsidiário, pretende-se desenvolver um modelo de pesquisa que busque contribuir para a aplicação do princípio da indissociabilidade entre ensino, pesquisa e extensão. A metodologia consiste na utilização de um estudo de caso com testes avaliativos, treinamento de sentenças e entrevistas. O sujeito selecionado para o estudo é um afásico agramático. Há, ainda, a colaboração de membros de sua família e da equipe de fonoaudiologia do Centro de Recuperação do Paciente Afásico (CRPA) da Universidade Veiga de Almeida (UVA). Os resultados coletados nos testes e nas entrevistas apontam para melhora no processamento linguístico de interrogativas-QU, tanto no que se refere à organização dos sintagmas nas sentenças, quanto à seleção de itens lexicais adequados (elementos-QU). Resultados também apontam para melhoras no cotidiano do afásico no que se refere à redução da ansiedade perante erros, presença de mais opções comunicativas e aumento da capacidade de comunicação independente. Através dos resultados, constata-se a viabilidade de aplicação do roteiro proposto para futura aplicação por profissionais envolvidos com o tratamento e o estudo das afasias
Resumo:
A segmentação dos nomes nas suas partes constitutivas é uma etapa fundamental no processo de integração de bases de dados por meio das técnicas de vinculação de registros. Esta separação dos nomes pode ser realizada de diferentes maneiras. Este estudo teve como objetivo avaliar a utilização do Modelo Escondido de Markov (HMM) na segmentação nomes e endereços de pessoas e a eficiência desta segmentação no processo de vinculação de registros. Foram utilizadas as bases do Sistema de Informações sobre Mortalidade (SIM) e do Subsistema de Informação de Procedimentos de Alta Complexidade (APAC) do estado do Rio de Janeiro no período entre 1999 a 2004. Uma metodologia foi proposta para a segmentação de nome e endereço sendo composta por oito fases, utilizando rotinas implementadas em PL/SQL e a biblioteca JAHMM, implementação na linguagem Java de algoritmos de HMM. Uma amostra aleatória de 100 registros de cada base foi utilizada para verificar a correção do processo de segmentação por meio do modelo HMM.Para verificar o efeito da segmentação do nome por meio do HMM, três processos de vinculação foram aplicados sobre uma amostra das duas bases citadas acima, cada um deles utilizando diferentes estratégias de segmentação, a saber: 1) divisão dos nomes pela primeira parte, última parte e iniciais do nome do meio; 2) divisão do nome em cinco partes; (3) segmentação segundo o HMM. A aplicação do modelo HMM como mecanismo de segmentação obteve boa concordância quando comparado com o observador humano. As diferentes estratégias de segmentação geraram resultados bastante similares na vinculação de registros, tendo a estratégia 1 obtido um desempenho pouco melhor que as demais. Este estudo sugere que a segmentação de nomes brasileiros por meio do modelo escondido de Markov não é mais eficaz do que métodos tradicionais de segmentação.
Resumo:
O biodiesel tem sido amplamente utilizado como uma fonte de energia renovável, que contribui para a diminuição de demanda por diesel mineral. Portanto, existem várias propriedades que devem ser monitoradas, a fim de produzir e distribuir biodiesel com a qualidade exigida. Neste trabalho, as propriedades físicas do biodiesel, tais como massa específica, índice de refração e ponto de entupimento de filtro a frio foram medidas e associadas a espectrometria no infravermelho próximo (NIR) e espectrometria no infravermelho médio (Mid-IR) utilizando ferramentas quimiométricas. Os métodos de regressão por mínimos quadrados parciais (PLS), regressão de mínimos quadrados parciais por intervalos (iPLS), e regressão por máquinas de vetor de suporte (SVM) com seleção de variáveis por Algoritmo Genético (GA) foram utilizadas para modelar as propriedades mencionadas. As amostras de biodiesel foram sintetizadas a partir de diferentes fontes, tais como canola, girassol, milho e soja. Amostras adicionais de biodiesel foram adquiridas de um fornecedor da região sul do Brasil. Em primeiro lugar, o pré-processamento de correção de linha de base foi usado para normalizar os dados espectrais de NIR, seguidos de outros tipos de pré-processamentos que foram aplicados, tais como centralização dos dados na média, 1 derivada e variação de padrão normal. O melhor resultado para a previsão do ponto de entupimento de filtro a frio foi utilizando os espectros de Mid-IR e o método de regressão GA-SVM, com alto coeficiente de determinação da previsão, R2Pred=0,96 e baixo valor da Raiz Quadrada do Erro Médio Quadrático da previsão, RMSEP (C)= 0,6. Para o modelo de previsão da massa específica, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com R2Pred=0,98 e RMSEP (g/cm3)= 0,0002. Quanto ao modelo de previsão para o índice de refração, o melhor resultado foi obtido utilizando os espectros de Mid-IR e regressão por PLS, com excelente R2Pred=0,98 e RMSEP= 0,0001. Para esses conjuntos de dados, o PLS e o SVM demonstraram sua robustez, apresentando-se como ferramentas úteis para a previsão das propriedades do biodiesel estudadas
Escolhas lexicais e iconicidade textual: uma análise do insólito no romance Sombras de Reis Barbudos
Resumo:
Esta tese dedicou-se a descrever e interpretar a tessitura textual dos fenômenos insólitos no romance Sombras de Reis Barbudos, de José J. Veiga, com base na associação entre a Teoria da Iconicidade Verbal e a Linguística de Córpus . Centrou-se, especificamente, nas marcas linguísticas que representam ideias ou conduzem o intérprete à percepção de que o insólito é construído no texto por meio itens léxicos que constituem pistas icônicas. Merecem especial interesse, sobretudo, os substantivos, que, por serem palavras com alta iconicidade, participam da construção/representação de fenômenos insólitos e criam, por meio da trilha léxica, o itinerário de leitura para o texto-córpus. Para que os resultados fossem significativos, análise apoiou-se nos recursos digitais da Linguística de Córpus (SARDINHA, 2004; 2009), que possibilitaram realizar uma pesquisa baseada em um córpus. A utilização da Linguística de Córpus como metodologia permitiu levantar, quantificar e tabular os signos que corroboram com a compreensão da incongruência e da iconicidade lexical dos fenômenos insólitos em um texto literário, identificando os substantivos-nódulos e seus colocados, para avaliá-los quanto à incompatibilidade das escolhas lexicais realizadas por José J. Veiga em relação às estruturas lexicogramaticais da Língua Portuguesa. Fundamentou-se a discussão no insólito como categoria essencial do fantástico modal (BESSIÈRE, 2009; COVIZZI, 1978, FURTADO, s.d.; PRADA OROPREZA, 2006); na Semiótica de extração peirceana, com enfoque na Teoria da Iconicidade Verbal (SIMÕES, 2007,2009) e na colocação lexical (BÉNJOINT, 1994; SINCLAIR, 1987, 1991, 2004; TAGNIN, 1989). A tese demonstra que a incongruência e a iconicidade lexical são identificadas a partir da seleção vocabular obtida pelo processamento digital e pelo confronto com o Córpus do Português. A análise comprova que os substantivos, como categorias linguísticas caracterizáveis semanticamente, têm a função designatória ou de nomeação na arquitetura de um texto em que se manifesta o insólito. Revela também que a incongruência lexical constitui-se em uma chave para a construção do ilógico, mágico, fantástico, misterioso, sobrenatural, irreal e suprarreal no texto-córpus