113 resultados para Ensilagem - Processamento
Resumo:
O presente trabalho apresenta a aplicação das fórmulas de Vincenty nos cálculos das correções do terreno e do efeito indireto, que desempenham papel relevante na construção de cartas geoidais. Implementa-se um programa de processamento que realiza a integração numérica sobre o modelo digital do terreno, discretizado em células triangulares de Delaunay. O sistema foi desenvolvido com a linguagem de programação FORTRAN, para a execução de intensos algoritmos numéricos usando compiladores livres e robustos. Para o cálculo do efeito indireto, considera-se a redução gravimétrica efetuada com base no segundo método de condensação de Helmert, face ao pequeno valor de efeito indireto no cálculo do geóide, em função da mudança que este produz no potencial da gravidade devido ao deslocamento da massa topográfica. Utiliza-se, o sistema geodésico SIRGAS 2000 como sistema de referência para o cômputo das correções. Simplificando o exame dos resultados alcançados, distingue-se o processamento e desenvolvimento do trabalho em etapas como a escolha de ferramentas geodésicas para máxima precisão dos resultados, elaboração de subrotinas e comparação de resultados com cálculos anteriores. Os resultados encontrados foram de geração sadia e satisfatória e podem ser perfeitamente empregados no cálculo do geóide em qualquer área do globo.
Resumo:
No atual contexto ambiental é grande a demanda por informações consistentes que subsidiem o planejamento territorial, permitindo realizar avaliações ambientais e desta forma, subsidiar os setores público e privado. Essa demanda pode ser satisfeita com a integração de informações em um sistema, com propriedades e funções de processamento, possibilitando sua utilização em ambiente integrado. Assim, nesta dissertação é proposta uma metodologia para a avaliação ambiental de bacias hidrográficas que atua desde a escolha de indicadores e definição dos pesos de sua contribuição, até a execução de avaliações e espacialização de resultados em ambiente SIG. Esta metodologia é composta por duas fases distintas: avaliação da vulnerabilidade ambiental da bacia hidrográfica a partir do uso de sistemas de suporte à decisão espacial, e, avaliação da sustentabilidade da bacia através do cálculo do indicador Pegada Ecológica. Na primeira fase são adotados sistemas de suporte à decisão, bases de conhecimento, SIG e uma ferramenta que integra estes resultados permitindo a geração de avaliações, análises e/ou cenários prospectivos. Na segunda fase, a sustentabilidade da bacia é retratada a partir do cálculo da pegada ecológica que consiste na contabilização da área que uma população necessita para produzir os recursos consumidos e absorver os resíduos gerados. A comparação entre áreas mais vulneráveis e menos sustentáveis, pode nortear projetos de recuperação e conservação ambiental.
Resumo:
O presente trabalho teve por objetivo quantificar, comparativamente, a área de preenchimento de dois materiais obturadores sólidos, cones de guta-percha (GP) e cones de Resilon (R), no terço apical de incisivos inferiores humanos, ex vivo, obturados pela técnica da onda contínua de condensação. Os espécimes foram submetidos a um protocolo, desde a cirurgia de acesso até o final do preparo químico-mecânico e divididos aleatoriamente em dois grupos, de 21 dentes cada, de acordo com o material utilizado. Não foi utilizado cimento endodôntico em nenhuma das amostras. Após a obturação, as amostras foram seccionadas transversalmente em dois níveis, a 3 e a 5mm do ápice, e subdivididas em grupos de acordo com a altura de corte e do material obturador, sendo estabelecido: GP3 (guta-percha com corte a 3mm), GP5 (guta-percha com corte a 5mm), R3 (Resilon com corte a 3mm) e R5 (Resilon com corte a 5mm). Posteriormente, as amostras foram submetidas a um processo de lixamento e polimento e examinadas em microscópio óptico por reflexão com aumento de 50x a 100x. Para a análise e processamento digital das imagens, foi utilizado o sistema de imagens Axio Vision 4.6 para Windows, sendo obtidas as medidas para cada área observada em micrômetros (μm); uma da área da cavidade, e outra da área de material obturador. Foi aferido o grau de circularidade de cada amostra, por uma fórmula matemática utilizada automaticamente pelo programa, onde 1 (um) é considerado o círculo perfeito e, quanto mais achatado o canal, mais tendente a 0 (zero) nesta escala. Obteve-se a área do canal, a circularidade de 0 a 1, a área preenchida pelo material obturador e, a porcentagem da área de preenchimento do material obturador em relação à área do canal. Foi realizado o cruzamento dos grupos dois a dois pelo teste t de Student, sendo verificada diferença estatisticamente significante entre os grupos GP3 e R3, tendo o grupo R3 apresentado maior porcentagem de área do canal radicular preenchida pelo material obturador em suas amostras (p<0,05). Na relação da circularidade com a quantidade de preenchimento, com o teste de Correlação de Pearson, não foi observada forte correlação entre a forma final do canal (relação de circularidade) e a quantidade de preenchimento do canal radicular pelos materiais obturadores testados. Conclui-se que houve grande variação de preenchimento mínimo e máximo em todos os grupos testados e o Resilon apresentou maior porcentagem de preenchimento de área do canal radicular em suas amostras.
Resumo:
O objetivo deste estudo foi avaliar a espessura mínima radicular remanescente e o desgaste porcentual do terço cervical em raízes mesiais de molares inferiores, após a instrumentação com as técnicas ProTaper Universal e Lima única F2. Foram obtidos 100 primeiros molares inferiores com raízes completamente separadas. Desse total, foram selecionados e incluídos no estudo somente 22 que possuíam dois canais distintos na raiz mesial, comprimento entre 20 e 22 mm e grau de curvatura da raiz mesial com angulação variando entre 10 e 20. Destes, 8 foram eliminados por possuírem uma anatomia muito discrepante, o que limitava o processamento e análise digital das imagens (PADI). Os dentes foram acessados e a patência apical foi realizada em todos os canais determinando o comprimento de trabalho. Em cada dente, cada canal mesial foi instrumentado por uma técnica diferente. As amostras foram posicionadas em um dispositivo de montagem e digitalizadas através de microtomografia computadorizada antes e depois de serem completamente instrumentadas. O volume de interesse, correspondente à região de zona de risco, com uma grande margem de tolerância, tanto em direção apical quanto em direção cervical, foi determinado por 234 fatias, totalizando um comprimento vertical de 3,5 mm, para avaliação quantitativa comparativa. Através de PADI mediu-se, de forma automática, a espessura mínima radicular nos dois canais mesiais, antes e após a instrumentação, para todas as fatias de todos os dentes. A partir destes dados foi calculado o desgaste porcentual. Após o tratamento estatístico das mais de 6500 medidas obtidas, pôde-se concluir que não existiu diferença no desgaste da zona de risco produzido pelas duas técnicas de instrumentação testadas. Em todos os casos a espessura radicular remanescente permaneceu dentro de uma margem de segurança, não havendo, portanto, nenhum caso de rasgo ou perfuração. Dessa forma, ambas as técnicas estudadas foram consideradas seguras quanto ao desgaste da zona de risco da raiz mesial dos molares inferiores.
Resumo:
O objetivo desse trabalho foi avaliar as alterações no tecido cardíaco e pulmonar de camundongos dislipidêmicos, esquistossomóticos e seus controles que haviam sido eutanasiados com 9 (fase aguda) e 17 (fase crônica) semanas de infecção. Foram estudados quatro grupos de camundongos, segundo a dieta e tempo de infecção: dieta padrão (SCa e SCc), dieta hiperlipídica (HFCa e HFCc), dieta padrão infectados (ISCa e ISCc) e dieta hiperlipídica infectados (IHFCa e IHFCc). O coração e o pulmão foram retirados, seccionados e os fragmentos foram submetidos a processamento histológico e corados com Hematoxilina e Eosina e Picrosirius red. Foram realizadas análises histopatológicas dos dois órgãos, além de estudos estereológico (dissector óptico) e morfométrico (vasos, cardiomiócitos e quantificação de colágeno) do coração. Os grupos foram comparados pelos Testes T de Student e/ou ANOVA. Todos os animais com dieta hiperlipídica, infectados ou não, apresentaram menor densidade de número e número total de cardiomiócitos (p<0,05), além de vasos intramiocárdicos com lúmen mais reduzido e paredes mais espessas que os controles, independente da semana em que foram eutanasiados. Os cardiomiócitos dos grupos IHFCa e IHFCc estavam mais hiperplásicos (p<0,0001) e continham mais colágeno ao redor (p<0,05) que os dos demais grupos estudados. Os corações dos grupos IHFC, nas duas fases, apresentaram maior quantidade de nichos inflamatórios, inúmeras regiões contendo coagulação de fibras cardíacas, maior número de áreas com desaparecimento de fibras e proliferação de fibroblastos quando comparados aos grupos ISC. Os pulmões de camundongos do grupo IHFCc apresentaram aumento do número de reações granulomatosas e infiltrados perivasculares quando comparados aos demais grupos infectados. Esses dados sugerem que a infecção por S. mansoni causa danos às estruturas miocárdica e pulmonar que se intensificam com a interação com a dieta rica em lipídios.
Resumo:
Sistemas Multiagentes estão recebendo cada vez mais a atenção de pesquisadores e desenvolvedores de jogos virtuais. O uso de agentes permite controlar o desempenho do usuário, adaptando a interface e alterando automaticamente o nível de dificuldade das tarefas. Este trabalho descreve uma estratégia de integração de sistemas multiagentes e ambientes virtuais tridimensionais e exemplifica a viabilidade dessa integração através do desenvolvimento de um jogo com características de Serious game. Este jogo visa estimular as funções cognitivas, tais como atenção e memória e é voltado para pessoas portadoras de diferentes distúrbios neuropsiquiátricos. A construção do jogo foi apoiada em um processo de desenvolvimento composto por várias etapas: estudos teóricos sobre as áreas envolvidas, estudo de tecnologias capazes de apoiar essa integração, levantamento de requisitos com especialistas, implementação e avaliação com especialistas. O produto final foi avaliado por especialistas da área médica, que consideraram os resultados como positivos.
Resumo:
Com a necessidade de extrair as informações contidas nas imagens de satélite de forma rápida, eficiente e econômica, são utilizadas cada vez mais as técnicas computacionais de processamento de imagens como a de segmentação automática. Segmentar uma imagem consiste em dividí-la em regiões através de um critério de similaridade, onde os pixels que estão contidos nestas possuem características semelhantes, como por exemplo, nível de cinza, textura, ou seja, a que melhor represente os objetos presentes na imagem. Existem vários exemplos de algoritmos segmentadores, como o de crescimento de regiões onde os pixels crescem e são aglutinados formando regiões. Para determinar quais os melhores parâmetros utilizados nestes algoritmos segmentadores é necessário que se avalie os resultados a partir dos métodos mais utilizados, que são os supervisionados onde há necessidade de uma imagem de referência, considerada ideal fazendo com que se tenha um conhecimento a priori da região de estudo. Os não supervisionados, onde não há a necessidade de uma imagem de referência, fazendo com que o usuário economize tempo. Devido à dificuldade de se obter avaliadores para diferentes tipos de imagem, é proposta a metodologia que permite avaliar imagens que possuam áreas com vegetação, onde serão formadas grandes regiões (Crianass) e o que avaliará as imagens com áreas urbanas onde será necessário mais detalhamento (Cranassir).
Resumo:
Na década de 90 com o aumento da capacidade de processamento e memória dos computadores, surgiu a fotogrametria digital, que tem como objetivo principal o mapeamento automático das feições naturais e artificiais do terreno, utilizando a imagem fotogramétrica digital como fonte primária de dados. As soluções fotogramétricas se tornaram mais compactas e versáteis. A estação fotogramétrica digital educacional E-FOTO é um projeto multidisciplinar, em desenvolvimento no laboratório de Fotogrametria Digital da Universidade do Estado do Rio de Janeiro, que se baseia em dois pilares: autoaprendizado e gratuidade. Este trabalho tem o objetivo geral de avaliar a qualidade das medições fotogramétricas utilizando a versão integrada 1.0β do E-FOTO. Para isso foram utilizados dois blocos de fotografias de regiões distintas do planeta: um bloco de fotografias (2005) do município de Seropédica-RJ e um bloco de fotografias antigas (1953) da região de Santiago de Compostela, na Espanha. Os resultados obtidos com o E-FOTO foram comparados com os resultados do software comercial de fotogrametria digital Leica Photogrammetry Suite (LPS 2010) e com as coordenadas no espaço-objeto de pontos medidos com posicionamento global por satélite (verdade de campo). Sendo possível avaliar as metodologias dos softwares na obtenção dos parâmetros das orientações interior e exterior e na determinação da exatidão das coordenadas no espaço-objeto dos pontos de verificação obtidas no módulo estereoplotter versão 1.64 do E-FOTO. Os resultados obtidos com a versão integrada 1.0β do E-FOTO na determinação dos parâmetros das orientações interior e exterior e no cálculo das coordenadas dos pontos de verificação, sem a inclusão dos parâmetros adicionais e a autocalibração são compatíveis com o processamento realizado com o software LPS. As diferenças dos parâmetros X0 e Y0 obtidos na orientação exterior com o E-FOTO, quando comparados com os obtidos com o LPS, incluindo os parâmetros adicionais e a autocalibração da câmara fotogramétrica, não são significativas. Em função da qualidade dos resultados obtidos e de acordo com o Padrão de Exatidão Cartográfica, seria possível obter um documento cartográfico Classe A em relação à planimetria e Classe B em relação à altimetria na escala 1/10.000, com o projeto Rural e Classe A em relação à planimetria e Classe C em relação à altimetria na escala 1/25.000, com o Projeto Santiago de Compostela. As coordenadas tridimensionais (E, N e H) dos pontos de verificação obtidas fotogrametricamente no módulo estereoplotter versão 1.64 do E-FOTO, podem ser consideradas equivalentes as medidas com tecnologia de posicionamento por satélites.
Resumo:
Neste trabalho é estudada a viabilidade de uma implementação em paralelo do algoritmo scale invariant feature transform (SIFT) para identificação de íris. Para a implementação do código foi utilizada a arquitetura para computação paralela compute unified device architecture (CUDA) e a linguagem OpenGL shading language (GLSL). O algoritmo foi testado utilizando três bases de dados de olhos e íris, o noisy visible wavelength iris image Database (UBIRIS), Michal-Libor e CASIA. Testes foram feitos para determinar o tempo de processamento para verificação da presença ou não de um indivíduo em um banco de dados, determinar a eficiência dos algoritmos de busca implementados em GLSL e CUDA e buscar valores de calibração que melhoram o posicionamento e a distribuição dos pontos-chave na região de interesse (íris) e a robustez do programa final.
Resumo:
A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.
Resumo:
Este estudo teve como objetivo principal utilizar os teores de elementos-traço e análise isotópica de Pb (204Pb,206Pb,207Pb,208Pb) como ferramentas na caracterização da poluição da Baía de Sepetiba-RJ. As coletas de sedimento superficiais de fundo foram realizadas em três campanhas, em novembro de 2010, no setor oeste da Baía de Sepetiba RJ. A malha amostral é composta por 66 amostras (BSEP 001 a BSEP 066) coletadas com busca-fundo Van Veen. O pré-processamento das amostras ocorreu no Laboratório Geológico de Preparação de Amostras do Departamento de Geologia da Universidade do Estado do Rio de Janeiro. A digestão parcial das amostras de sedimento (< 0.072 mm) para obtenção do teor parcial dos elementos-traço (Ag, As, Cd, Co, Cr, Cu, Li, Mn, Ni, Pb, Sr, U, Zn) e de isótopo de Pb (lixiviação) foi executada no Laboratório de Geoquímica Analítica do Instituto de Geociências da UNICAMP e a leitura foi executada através do ICP-MS. Já as análises das concentrações totais dos elementos-traço (inclusive, Hg) e de isótopos de Pb (dissolução total) foram realizadas no laboratório ACTLABS (Ontário-Canadá) através do ICP Varian Vista. As leituras isotópicas foram feitas somente nas amostras que apresentaram concentrações parciais de Pb, acima de 0,5 g/g, totalizando 21 estações. Pôde-se constatar a existência de um enriquecimento de elementos-traço no setor oeste da Baía de Sepetiba. As médias dos teores totais de Ag (0,4 g/g), Cd (0,76 g/g), Cu (62,59 g/g), Li (43,29 g/g), Ni (16,65 g/g), Pb (20,08 g/g), Sr (389,64 g/g) e Zn (184,82 g/g) excederam os limites recomendados ou valores naturais. Isto pode ser reflexo da influência antrópica na região, principalmente relacionada à atividade de dragagem e à permanência dos resíduos de minério da desativada companhia de minério Ingá, na Ilha da Madeira. Os mapas de distribuição da concentração dos metais-traço destacaram a presença de vários sítios de deposição ao longo do setor oeste da baía de Sepetiba, com destaque para a região entre a porção centro oeste da Ilha de Itacuruça e o continente; Saco da Marambaia e Ponta da Pombeba; e porção oeste da Ponta da Marambaia. As razões isotópicas 206Pb/207Pb da área estudada variaram entre 1,163 a 1,259 para dissolução total e 1,1749-1,1877 para técnica de lixiviação, valores considerados como assinaturas de sedimentos pós-industriais ou comparados à assinatura de gasolina. Ainda sobre a técnica de lixiviação, destaca-se que os sedimentos superficiais do setor oeste (206Pb/207Pb: 1,1789) da baía de Sepetiba apresentaram uma assinatura uniforme e menos radiogênica do que setor leste (206Pb/207Pb: 1,2373 e 1,2110) desta baía. Através da assinatura isotópica de Pb encontrada nesta região é possível destacar a pouca contribuição das águas oceânicas para esse sistema, entretanto, a circulação interna intensa das águas da baía permite a homogeneização destas. O emprego destes tipos de ferramentas no monitoramento ambiental da área mostrou-se bastante eficiente, sendo importante a continuidade desta abordagem de pesquisa a fim de auxiliar na implementação de um plano de manejo local.
Resumo:
Este estudo teve como objetivo principal caracterizar os padrões de distribuição do material particulado em suspensão ao longo da baía de Sepetiba, associando as variabilidades espaciais e temporais com ciclos de maré. Além disso, o estudo também avalia a utilização de equipamentos acústicos como ferramentas à estimativa das concentrações de material particulado em suspensão. A aquisição de dados foi realizada num total de sete campanhas realizadas entre novembro de 2010 e dezembro de 2011. Sete estações foram posicionadas nas proximidades do canal principal de acesso à baía, ao longo de um transecto que se estende do seu interior até sua desembocadura. As sete campanhas amostrais se distribuem em duas séries longas, de 13 e 25 horas, de aquisição em um ponto fixo, e cinco amostragens ao longo das estações. A aquisição de dados envolve: coleta de amostras de água, utilizadas nas estimativas das concentrações de material particulado; coleta de sedimentos de fundo para caracterização granulométrica das estações amostradas; perfis de parâmetros físico-químicos; dados de correntômetria adquiridos junto ao fundo. O processamento das amostras de água e sedimentos foi realizado no laboratório de Geologia Marinha da Faculdade de Oceanografia da Universidade do Estado do Rio de Janeiro. As concentrações de material particulado em suspensão foram utilizadas na calibração de sensores acústicos e óticos, permitindo uma avaliação espaço-temporal mais detalhada dos padrões de distribuição junto ao fundo e ao longo da coluna dágua. Os dados observados permitiram identificar que as maiores concentrações de material particulado em suspensão ocorrem em condições de maré enchente, e estão associadas à assimetria de maré. A baía pode ser dividida em dois setores: um na porção mais interna, onde se observou maior influência do aporte fluvial, onde as concentrações de material particulado em suspensão respondem à propagação da pluma do canal de São Francisco; e outro que se estende da porção central até sua desembocadura, onde predomina o domínio marinho, com influência de eventos oriundos da plataforma continental. Também pode ser identificada a influência do fenômeno La Niña, que provavelmente foi responsável por: altas salinidades encontradas no interior da baía e ocorrência da Água Central do Atlântico Sul à baixas profundidades. Quanto à utilização de equipamentos acústicos nas estimativas das concentrações de material particulado, os dados se demonstraram ricos em detalhes, que permitiram avaliar o comportamento do material particulado junto ao fundo frente a diferentes condições de maré, turbulência e incidência de oscilações.
Resumo:
A microtomografia computadorizada (computed microtomography - μCT) permite uma análise não destrutiva de amostras, além de possibilitar sua reutilização. A μCT permite também a reconstrução de objetos tridimensionais a partir de suas seções transversais que são obtidas interceptando a amostra através de planos paralelos. Equipamentos de μCT oferecem ao usuário diversas opções de configurações que alteram a qualidade das imagens obtidas afetando, dessa forma, o resultado esperado. Nesta tese foi realizada a caracterização e análise de imagens de μCT geradas pelo microtomógrafo SkyScan1174 Compact Micro-CT. A base desta caracterização é o processamento de imagens. Foram aplicadas técnicas de realce (brilho, saturação, equalização do histograma e filtro de mediana) nas imagens originais gerando novas imagens e em seguida a quantificação de ambos os conjuntos, utilizando descritores de textura (probabilidade máxima, momento de diferença, momento inverso de diferença, entropia e uniformidade). Os resultados mostram que, comparadas às originais, as imagens que passaram por técnicas de realce apresentaram melhoras quando gerados seus modelos tridimensionais.
Resumo:
Alguns estudos na área da Psicolinguística tratam sobre a interrupção da forma natural da fluência da fala. Essas suspensões são denominadas disfluências e podem ser de variados tipos como, por exemplo, repetições, substituições ou pausas. Entre alguns trabalhos sobre disfluências, destaca-se o realizado por Jaeger (2005), que tratou da omissão do relativizador that na língua inglesa e a possibilidade desse fator ser responsável pela criação de disfluências. Nessa mesma linha, objetivamos analisar as disfluências na camada dos relativizadores camada CP em língua portuguesa brasileira. Para isso, tomaram-se dados obtidos por Corrêa et al (2008) sobre produção de orações relativas. Nesse estudo, os autores, buscando verificar a complexidade da formulação de orações relativas, manipularam duas condições: plenamente planejada que reduziria a carga de processamento e, consequentemente, levaria à maior produção de orações relativas padrões e parcialmente planejada a qual aumentaria a carga de processamento e, consequentemente, maior produção de orações relativas cortadoras e resumptivas. Diante disso, sabendo que o planejamento de estruturas mais complexas pode ser um fator que gere mais sentenças disfluentes, resta saber em qual das condições, estipuladas por Corrêa et al (2008), haveria maior caso de disfluências. Acreditamos que a condição parcialmente planejada resultaria mais casos de disfluências em comparação à condição inteiramente planejada. Para verificação de tal hipótese, a presente pesquisa focou suas atenções no banco de dados de Corrêa et al (2008). Após determinados critérios, privilegiamos sentenças de orações relativas genitivas, orações relativas de objeto indireto funcional e orações relativas de objeto indireto lexical, pois tais seriam construções sintáticas mais complexas e passíveis de terem mais casos de disfluências. Identificadas e quantificadas todas as falas de interesse, criamos tabelas para melhor visualização das disfluências em localizações específicas na sentença como, por exemplo, antes da oração relativa (AOR), na oração relativa (NAOR) e depois da oração relativa (DPOR). Com tais dados analisados, verificamos que eles corroboravam a hipótese levantada: na condição parcialmente planejada há mais casos de disfluências do que na condição inteiramente planejada, principalmente quando se é focalizada a localização NAOR. Entre os principais resultados, percebemos que as disfluências do tipo pausas preenchidas aparecem em grande quantidade na localização NAOR, fator que revela uma característica especial da oração relativa. Essa disfluência, nesse trecho da sentença, revela que os falantes não somente fazem uma procura lexical, como também, um planejamento discursivo. Tais resultados nos motivaram a pensar em outras determinadas situações de pesquisa como, por exemplo, a análise das disfluências em sentenças de voz passiva
Resumo:
Esta dissertação constitui uma investigação da estrutura e da discursividade do texto poético em suas virtualidades e está dividida em duas partes, distintas, mas não estanques. Na primeira parte, estudamos o texto poético considerando seus aspectos estruturais; na segunda, tratamos dos fatores que envolvem seus aspectos discursivos. Em relação aos os aspectos estruturais, consideramos o que formalmente torna o texto um objeto de arte literária. Aqui, em primeira mão, atentamos para os estudos poéticos desenvolvidos por Roman Jakobson. Ao considerar o formalismo do texto poético, levamos em conta as noções de poética, de estilo e de sua dimensão filosófica, bem como os aspectos da literariedade da linguagem e os fatores da versificação como elementos de construção do sentido poético do texto. Além disso, consideramos as noções de determinação e predicação, onde pontuamos os efeitos estilísticos da adjetivação na formulação do sentido poético da linguagem, analisados sob uma ótica sintática e funcional. No âmbito da discursividade, abordamos o texto poético sob a esfera de uma estilística de base enunciativa, de onde procuramos extrair o sentido que certas noções engendram no processamento textual. Para levarmos a termo a dinâmica discursiva do texto poético, estabelecemos sua ligação com o universo discursivo, em que os fatores da realidade discursiva são tomados como gérmen da poeticidade, sustentada pela concepção estética da linguagem. Para tanto, consideramos os fatores da referenciação, da subjetividade da linguagem, dos gêneros discursivos, da heterogeneidade enunciativa e dos gêneros textuais. Finalizamos com a análise de um texto poético, em que aplicamos as teorias da Análise Semiolingüística do Discurso, desenvolvidas por Patrick Charaudeau