918 resultados para Congelamento e processamento
Resumo:
Pesquisas sobre a situação de leitura dos nossos alunos apontam que a maioria não tem proficiência leitora. O problema ganha amplitude quando resultados de avaliações externas elaboradas pelo governo federal são divulgados, dentre eles os da Prova Brasil. Essas avaliações da Educação Básica têm provocado muitas discussões em vários níveis, visto que promovem um retorno de ordem quantitativa, porque controlam o percentual de acertos das questões. Um destes níveis é o organizacional, já que tais avaliações apontam para os possíveis problemas do fazer pedagógico. Esse quadro aliado aos resultados insatisfatórios do município de Duque de Caxias na Prova Brasil motivou a elaboração do Projeto Con-seguir e da Prova Caxias, com o intuito de diagnosticar tais problemas. Este estudo debruça-se sobre a compreensão leitora, tratando especificamente da compreensão leitora dos alunos da rede municipal de educação da Prefeitura de Duque de Caxias em questões que possuem tiras em quadrinhos. Analisamos as questões com tiras na Prova Caxias à luz da Linguística Cognitiva assim como o desempenho dos alunos da rede nessas questões. De caráter eminentemente qualitativo, a análise tem como unidades de análise os conceitos de mescla e de modelos cognitivos idealizados, acompanhada por parâmetros quantitativos relacionados ao desempenho dos alunos na Prova Caxias. Além da análise de questões e quantificação dos resultados da prova em tela, recorremos também à aplicação de questionário investigativo a sete professores da rede, todos da educação básica do município. O propósito foi analisar suas práticas pedagógicas no ensino-aprendizagem de leitura, tratando especificamente do gênero história em quadrinhos. Suas respostas foram analisadas por meio do conceito de categorização por prototipicidade. A análise realizada revela que os principais problemas na compreensão leitora advêm do processamento metafórico (LAKOFF ; JOHNSON, 2002) e da construção de mesclas (FAUCONNIER ; TURNER, 2002) exigidos por esse gênero. Dentre as contribuições do estudo, destacamos o conhecimento construído sobre o processo de construção de sentido em questões de histórias em quadrinhos pelos alunos de Duque de Caxias e a análise crítica sobre das práticas de leitura no ambiente escolar deste mesmo contexto
Resumo:
O aço inoxidável hiperduplex, SAF 2707 HD, foi desenvolvido com o intuito de se obter novas ligas com maior resistência à corrosão do que a disponível nos aços inoxidáveis duplex / superduplex. Além da melhorada resistência à corrosão, este tb oferece propriedades mecânicas superiores. Os aços hiperduplex são aços de última geração que possuem elevados teores de elementos de liga, principalmente cromo, molibdênio e nitrogênio. Este tipo de aço caracteriza-se por apresentar estrutura bifásica, constituída de proporções praticamente iguais de ferrita e austenita devido à distribuição controlada dos elementos alfagênicos e gamagênicos. O interesse por esses aços cresce gradativamente com a necessidade de novos materiais para diversas aplicações na indústria petrolífera. Porém, quando expostos e mantidos a temperaturas elevadas, na faixa entre 600C e 1000C, algumas fases intermetálicas podem se formar, em que a fase sigma () é a mais proeminente. Possui uma estrutura cristalina tetragonal complexa rica em Cr e Mo, tendo efeito deletério no material afetando tanto a resistência à corrosão, quanto as propriedades mecânicas. Para este fim, faz-se necessário estudos da junta soldada para delinear as limitações desses aços e aperfeiçoar a aplicação. Essa pesquisa teve como objetivo caracterizar a junta soldada por TIG autógeno manual com arco pulsado e não pulsado do aço inoxidável hiperduplex SAF 2707 HD. As técnicas empregadas foram a metalografia por ataque eletrolítico (reagente NaOH) e color etching (reagente Behara), medidas de microdureza e quantificação microestrutural por Processamento Digital de Imagem. Os aspectos microestruturais foram observados por microscopia óptica (MO) e microscopia eletrônica de varredura (MEV), estes passaram por etapas de processamento digital de imagens (PDI) para quantificar a fração volumétrica da fase austenita. Realizou-se análise química semi-quatitativa por EDS. Os resultados foram analisados estatisticamente através do teste de hipóteses com distribuição t de Student. Pela técnica color etching observou-se que a fase austenita foi gerada com distribuição mais homogênea para o arco pulsado, que o não pulsado. O ataque eletrolítico não revelou uma terceira fase (fase ) na junta soldada, a análise química por EDS não identificou uma variação significativa nos elementos presentes ao longo da zona de transição do metal de base para a zona de fusão. Através do PDI foram obtidos os valores médios da fração volumétrica de austenita de 36,38% (desvio padrão 6,40%) e 32,41% (desvio padrão 6,67%) para os dois métodos, pulsado e não pulsado, respectivamente. Foram obtidos os valores de microdureza para o metal de base 355,10 HV (desvio padrão 28,60) e para a zona de fusão 343,60 HV (desvio padrão 20,51) da amostra soldada pelo modo pulsado, para o modo não pulsado foram apresentaram os valores médios de 370,30 HV (desvio padrão 34,51) para o metal de base e de 345,20 HV (desvio padrão 41,33) para a zona de fusão. A análise estatística indicou que não houve variação significativa da fração volumétrica da fase austenita no cordão de solda para as duas condições testadas e não houve variação da microdureza entre a zona de fusão e o metal de solda das amostras submetidas aos dois processos.
Resumo:
O sangue do cordão umbilical e placentário (SCUP) tem sido usado como fonte de células-tronco hematopoiéticas (CTH) para reconstituir a função medular (hematopoiese). A maioria das vezes, esta modalidade de transplante requer a criopreservação das CTH, que permanecem congeladas até uma possível utilização futura. Na criopreservação de CTH, o reagente químico dimetilsulfóxido (DMSO) tem sido utilizado como um crioprotetor. No entanto, tem sido provado que DMSO tem efeitos tóxicos para o corpo humano. Muitos organismos na natureza possuem uma capacidade de sobreviver ao congelamento e à desidratação acumulando dissacarídeos, como a trealose e sacarose, por isso a trealose, tem sido investigada como um crioprotetor alternativo para diversos tipos celulares. Outro dano muito comum durante o congelamento é a formação de espécie reativas de oxigênio (ERO) que diminui a viabilidade celular, por isso a adição de bioantioxidantes na solução de criopreservação das células é passo muito importante. Este estudo foi dividido em duas fases na primeira foram avaliados os resultados obtidos com a adição de antioxidantes na solução de criopreservação das células de SCUP e na segunda fase avaliou-se a hipótese que a solução de criopreservação contendo trealose intracelular e extracelular melhora a recuperação e a viabilidade das células-tronco do SCUP, após a criopreservação. SCUP foi processado e submetido à criopreservação em soluções contendo na primeira fase: soluções com diferentes concentrações de DMSO (10%, 5% e 2,5%), assim como as combinações de DMSO (5%, 2,5%) com um dos dissacarídeos (60mmol/L) e ácido ascórbico e/ou catalase (10mg/mL); e na segunda fase: soluções contendo diferentes concentrações de DMSO (10% e 2,5%), assim como as combinações de DMSO (2,5%) com trealose intra (a trealose foi introduzida na célula por meio de lipossomas) e extracelular e soluções contendo trealose intra e extracelular sem DMSO, armazenados por duas semanas em N2L, e descongeladas. As células descongeladas foram avaliadas por citometria de fluxo, pelo ensaio metabólico pelo MTT e de unidades formadoras de colônias (UFC). Na primeira fase do estudo, a catalase, melhorou a preservação das células CD34+ e CD123+, a UFC e a viabilidade celular, em comparação com a solução padrão de criopreservação. Já na segunda fase do estudo, após as análises de todos os testes vimos que a solução que continha trealose intra/extracelular e DMSO mostrou uma capacidade de manutenção da viabilidade/integridade celular superior a todas as outras testadas. A solução que continha trealose intra e extracelular sem DMSO, obteve um resultado comparável com seu controle (2,5%DMSO), porém quando avaliamos a solução que continha apenas trealose intracelular não obtivemos resultados satisfatórios. A catalase pode atuar sobre a redução dos níveis ERO na solução de criopreservação das CTH de SCUP, diminuindo os danos por ele causados e a trealose deve estar presente em ambos os lados das células durante o processo de congelamento. Portanto, em testes clínicos futuros, ela poderá ser um potencial crioprotetor das células-tronco de SCUP, podendo substituir totalmente o DMSO da solução de criopreservação, minimizando com os efeitos colaterais provenientes da infusão de produtos criopreservados nos pacientes.
Resumo:
A anecencefalia é o Defeito do Tubo Neural (DTN) mais severo em fetos humanos. Há uma demanda crescente para reposição tissular em doenças crônicas e cirurgias reconstrutoras. Tecidos fetais têm sido utilizados como substitutos para órgãos sólidos. Comparar a estrutura e morfologia do corpo cavernoso e corpo esponjoso de pênis de fetos humanos anencéfalos e de controle a fim de propor um novo modelo para estudos biológicos e transplantes teciduais. Foram estudados 11 pênis de fetos de controle de 14 a 23 Semanas Pós Concepção (SPC), e cinco pênis de fetos anencéfalos de 18 a 22 SPC. Os órgãos foram removidos e processados pelas técnicas histo e imunohistoquímicas rotineiras. A análise do tecido conjuntivo, células musculares lisas e fibras elásticas foram realizadas em lâminas dos espécimes. Os dados foram expressos em Densidade de àrea (Da) utilizando-se um software de processamento digital. As médias foram comparadas utilizando-se o Teste - T não pareado e quando aplicável, a regressão linear simples foi utilizada. Foi considerada significância estatística se p<0,05. O septo intercavernoso encontrava-se presente em todas as amostras. Não foram observadas diferenças da Da do tecido colágeno e musculatura lisa dos pênis de fetos anencéfalos quando comparados aos normais. A regressão linear simples sugere que durante o desenvolvimento humano há um aumen2to gradual do tecido colágeno (R2=0,45) e uma diminuição da musculatura lisa (R =0,62) no corpo cavernoso de ambos os grupos. A elastina encontrava-se presente apenas em fetos a partir da 20 SPC. Não houve diferença na estrutura da genitália entre fetos normais e enencéfalos. Apresença da elastina em fetos a partir da 20 SPC é um dado objetivo da manutenção da capacidade de ereção nestes grupos. A histo e imunohistoquímica sugerem que o desenvolvimento do pênis destes fetos encontra-se inalterado. Futuros estudos deverão ser realizados com o objetivo de avaliar fetos anencéfalos como um potencial grupo de doadores teciduais e um adequado modelo para estudos biológicos.
Resumo:
Nas gramáticas tradicionais da língua portuguesa, o estudo sobre a antonomásia, figura de linguagem que designa o processo de passagem de um nome próprio a um nome comum e vice-versa, é visto ora ligado ao conceito de metáfora, ora ligado à relação parte- todo, isto é, à metonímia. Na maioria das vezes, os exemplos mostrados nessas abordagens tradicionais estão descontextualizados, ou seja, não são retirados de um emprego discursivo- dialógico da língua. O principal objetivo desta tese é fazer uma reflexão sobre o potencial semiótico- funcional e cognitivo dos nomes próprios nas antonomásias discursivas, ou seja, aquelas que ainda não estão dicionarizadas, porque são temporárias, e, consequentemente, sua interpretação pertence ao âmbito do processamento discursivo. Tendo como base teórica a teoria dos Espaços Mentais em seu segundo momento, reconhecida como teoria da Integração Conceptual (FAUCONNIER; TURNER, 2002), e a teoria da Iconicidade Verbal, desenvolvida por Simões (2009), baseada nos estudos semióticos de Charles Sanders Peirce, analisar-se-ão, nesta tese, os seguintes aspectos do nome próprio nas antonomásias discursivas: a forma do nome próprio, ou seja, sua plasticidade, que é a característica central da iconicidade diagramática, e a iconicidade isotópica, que age como uma espécie de condutor temático para a formação de sentido de um texto. Esses dois tipos de iconicidade se inserem numa rede mais ampla de signos denominada iconicidade verbal, ou lexical (SIMÕES, 2004), que abrange efeitos tanto de ordem discursiva (discursivização) como de ordem estilística. Assim, ao se conceber o estudo das antonomásias discursivas do nome próprio em uma perspectiva semiótico- discursiva e cognitiva, ter-se-á dado mais um passo nos estudos dos itens lexicais que atuam como organizadores de sentido de um texto
Resumo:
Essa pesquisa teve como objetivo analisar a aplicabilidade de uma metodologia de investigação das disfunções existentes no conjunto de dados eleitorais de uma eleição para cargo majoritário no Brasil. O desenvolvimento e a rápida expansão da teoria descoberta por Newcomb-Benford, conhecida como Lei de Benford, bastante difundida por Mark J. Nigrini, Ph.D. no meio contábil, com a utilização de testes estatísticos, despertou o interesse por esta pesquisa. Vislumbrou-se a possibilidade de reduzir o risco de fraude eleitoral através da utilização da análise digital. Entretanto, é necessário adotar procedimentos mais acurados para que possíveis erros de aplicação do método analisado não acabem inviabilizando os efeitos benéficos trazidos pelo mesmo. A probabilidade de ocorrência do erro tipo I alarme falso pode levar ao aumento de custo na análise dos dados. Um dos maiores problemas encontrados em auditorias, contábeis ou não, diz respeito à falha na obtenção de evidências. No Brasil, a partir da utilização de sistema de processamento eletrônico de votação, houve um aumento da preocupação com a fraude, visto que não existe ainda um procedimento que permita verificar, por trilha de auditoria, a confiabilidade dos dados eleitorais. Para atingir o objetivo da pesquisa, foi realizada a aplicação do método estudado em um conjunto de dados relativos à eleição para cargo majoritário Presidente da República do Brasil - no ano de 2010, e a posterior análise dos resultados obtidos. Então, a partir dos resultados obtidos, pode-se sugerir a aplicabilidade da Lei de Benford, em especial o teste do 2 dígito, para a detecção de manipulação ou fraude no conjunto de dados eleitorais.
Resumo:
Este trabalho que envolve matemática aplicada e processamento paralelo: seu objetivo é avaliar uma estratégia de implementação em paralelo para algoritmos de diferenças finitas que aproximam a solução de equações diferenciais de evolução. A alternativa proposta é a substituição dos produtos matriz-vetor efetuados sequencialmente por multiplicações matriz-matriz aceleradas pelo método de Strassen em paralelo. O trabalho desenvolve testes visando verificar o ganho computacional relacionado a essa estratégia de paralelização, pois as aplicacações computacionais, que empregam a estratégia sequencial, possuem como característica o longo período de computação causado pelo grande volume de cálculo. Inclusive como alternativa, nós usamos o algoritmo em paralelo convencional para solução de algoritmos explícitos para solução de equações diferenciais parciais evolutivas no tempo. Portanto, de acordo com os resultados obtidos, nós observamos as características de cada estratégia em paralelo, tendo como principal objetivo diminuir o esforço computacional despendido.
Resumo:
Esta pesquisa investigou a formação de depósitos arenosos localizados na planície costeira da Baixada de Sepetiba, em Itaguaí, estado do Rio de Janeiro. A deposição sedimentar e a evolução desta área, na Baixada de Sepetiba tem sido estudada nas três últimas décadas, principalmente, porque é um ambiente de depósitos arenosos antigo de idade Holocênica a Pleistocênica que corresponde a uma linha de praia, originada com eventos transgressivos e/ou regressivos que tiveram seu ápice durante o Quaternário. A metodologia de Radar de Penetração no Solo (GPR) é usada, principalmente nos casos de trabalho em que se estuda um ambiente costeiro arenoso. Este campo da Geofísica tem sido usado para examinar características, tais como: a espessura de depósitos arenosos, a profundidade de um aqüífero, a detecção de uma rocha ou um aqüífero, e determina a direção de progradação. Esta pesquisa usa técnicas de radar de penetração no solo (GPR) para analisar as estruturas, em subsuperfície desde que o ambiente estudado seja definido como linha de costa, as margens de uma lagoa mixohalina, chamada Baía de Sepetiba. Neste trabalho realizamos um total de 11 perfis, que foram processados pelo software ReflexWin. Durante o processamento do dado aplicamos alguns filtros, tais como: subtract-mean (dewow), bandpassfrequency e ganhos. E as melhores imagens dos perfis foram realizadas usando-se uma antena de 200 MHz (canal 1) e outra antena de 80 MHz. Neste caso, obtivemos imagens de alta resolução a uma profundidade de até 25 metros.
Resumo:
Este trabalho apresenta uma proposta para permitir o uso compartilhado dos recursos computacionais utilizados em um cluster de forma a atender simultaneamente aos quatro experimentos do CERN. A abordagem adotada utiliza o conceito de contratos, onde os requisitos e restrições de cada experimento são descritos em perfis, e uma política de alocação de recursos é definida para manter a utilização dos recursos de forma a atender aos perfis. Propomos um modelo de arquitetura para gerenciar o uso compartilhado de um cluster pelas quatro Organizações Virtuais do LHC. Este modelo de arquitetura é composto de elementos comuns a um cluster típico da Tier-2, acrescidos de funcionalidades para controlar a admissão de novos jobs de todas as Organizações Virtuais do LHC. Este modelo monitora a utilização de recursos do cluster por cada OV, aloca recursos para cada job de acordo com uma política estabelecida para o cluster de forma a procurar respeitar os requisitos de cada uma delas. Definimos um algoritmo para o escalonamento de jobs, que utiliza mecanismos de preempção para controlar a alocação de nós do cluster dependendo o uso corrente e acumulado de recursos por cada OV. Este algoritmo é executado em um dos elementos da arquitetura batizado de broker, dado que o mesmo intermedeia a chegada de novos jobs e a alocação dos nós do cluster, e tem com objetivo manter o controle dos contratos de cada OV. A simulação da arquitetura proposta foi feita no simulador de grades GridSim e os resultados obtidos foram avaliados.
Resumo:
Esta tese propôs uma metodologia para detecção de áreas susceptíveis a deslizamentos de terra a partir de imagens aéreas, culminando no desenvolvimento de uma ferramenta computacional, denominada SASD/T, para testar a metodologia. Para justificar esta pesquisa, um levantamento sobre os desastres naturais da história brasileira relacionada a deslizamentos de terra e as metodologias utilizadas para a detecção e análise de áreas susceptíveis a deslizamentos de terra foi realizado. Estudos preliminares de visualização 3D e conceitos relacionados ao mapeamento 3D foram realizados. Estereoscopia foi implementada para visualizar tridimensionalmente a região selecionada. As altitudes foram encontradas através de paralaxe, a partir dos pontos homólogos encontrados pelo algoritmo SIFT. Os experimentos foram realizados com imagens da cidade de Nova Friburgo. O experimento inicial mostrou que o resultado obtido utilizando SIFT em conjunto com o filtro proposto, foi bastante significativo ao ser comparado com os resultados de Fernandes (2008) e Carmo (2010), devido ao número de pontos homólogos encontrados e da superfície gerada. Para detectar os locais susceptíveis a deslizamentos, informações como altitude, declividade, orientação e curvatura foram extraídas dos pares estéreos e, em conjunto com as variáveis inseridas pelo usuário, forneceram uma análise de quão uma determinada área é susceptível a deslizamentos. A metodologia proposta pode ser estendida para a avaliação e previsão de riscos de deslizamento de terra de qualquer outra região, uma vez que permite a interação com o usuário, de modo que este especifique as características, os itens e as ponderações necessárias à análise em questão.
Resumo:
No presente trabalho foram utilizados modelos de classificação para minerar dados relacionados à aprendizagem de Matemática e ao perfil de professores do ensino fundamental. Mais especificamente, foram abordados os fatores referentes aos educadores do Estado do Rio de Janeiro que influenciam positivamente e negativamente no desempenho dos alunos do 9 ano do ensino básico nas provas de Matemática. Os dados utilizados para extrair estas informações são disponibilizados pelo Instituto Nacional de Estudos e Pesquisas Educacionais Anísio Teixeira que avalia o sistema educacional brasileiro em diversos níveis e modalidades de ensino, incluindo a Educação Básica, cuja avaliação, que foi foco deste estudo, é realizada pela Prova Brasil. A partir desta base, foi aplicado o processo de Descoberta de Conhecimento em Bancos de Dados (KDD - Knowledge Discovery in Databases), composto das etapas de preparação, mineração e pós-processamento dos dados. Os padrões foram extraídos dos modelos de classificação gerados pelas técnicas árvore de decisão, indução de regras e classificadores Bayesianos, cujos algoritmos estão implementados no software Weka (Waikato Environment for Knowledge Analysis). Além disso, foram aplicados métodos de grupos e uma metodologia para tornar as classes uniformemente distribuídas, afim de melhorar a precisão dos modelos obtidos. Os resultados apresentaram importantes fatores que contribuem para o ensino-aprendizagem de Matemática, assim como evidenciaram aspectos que comprometem negativamente o desempenho dos discentes. Por fim, os resultados extraídos fornecem ao educador e elaborador de políticas públicas fatores para uma análise que os auxiliem em posteriores tomadas de decisão.
Resumo:
A engenharia geotécnica é uma das grandes áreas da engenharia civil que estuda a interação entre as construções realizadas pelo homem ou de fenômenos naturais com o ambiente geológico, que na grande maioria das vezes trata-se de solos parcialmente saturados. Neste sentido, o desempenho de obras como estabilização, contenção de barragens, muros de contenção, fundações e estradas estão condicionados a uma correta predição do fluxo de água no interior dos solos. Porém, como a área das regiões a serem estudas com relação à predição do fluxo de água são comumente da ordem de quilômetros quadrados, as soluções dos modelos matemáticos exigem malhas computacionais de grandes proporções, ocasionando sérias limitações associadas aos requisitos de memória computacional e tempo de processamento. A fim de contornar estas limitações, métodos numéricos eficientes devem ser empregados na solução do problema em análise. Portanto, métodos iterativos para solução de sistemas não lineares e lineares esparsos de grande porte devem ser utilizados neste tipo de aplicação. Em suma, visto a relevância do tema, esta pesquisa aproximou uma solução para a equação diferencial parcial de Richards pelo método dos volumes finitos em duas dimensões, empregando o método de Picard e Newton com maior eficiência computacional. Para tanto, foram utilizadas técnicas iterativas de resolução de sistemas lineares baseados no espaço de Krylov com matrizes pré-condicionadoras com a biblioteca numérica Portable, Extensible Toolkit for Scientific Computation (PETSc). Os resultados indicam que quando se resolve a equação de Richards considerando-se o método de PICARD-KRYLOV, não importando o modelo de avaliação do solo, a melhor combinação para resolução dos sistemas lineares é o método dos gradientes biconjugados estabilizado mais o pré-condicionador SOR. Por outro lado, quando se utiliza as equações de van Genuchten deve ser optar pela combinação do método dos gradientes conjugados em conjunto com pré-condicionador SOR. Quando se adota o método de NEWTON-KRYLOV, o método gradientes biconjugados estabilizado é o mais eficiente na resolução do sistema linear do passo de Newton, com relação ao pré-condicionador deve-se dar preferência ao bloco Jacobi. Por fim, há evidências que apontam que o método PICARD-KRYLOV pode ser mais vantajoso que o método de NEWTON-KRYLOV, quando empregados na resolução da equação diferencial parcial de Richards.
Resumo:
Esta dissertação aborda a questão da transferência entre línguas na aquisição de segunda língua/língua estrangeira (L2/FL), mais especificamente, a influência do Português Brasileiro (PB) como língua materna (L1) na aquisição de inglês como L2/FL no que diz respeito ao preenchimento da posição de sujeito pronominal. Esse fenômeno é investigado à luz da teoria linguística gerativista nos moldes do Programa Minimalista (CHOMSKY, 1995) e da psicolinguística, no âmbito das questões de aquisição de L2/FL, ciência responsável por fornecer modelos procedimentais de como a produção e a compreensão de sentenças podem ser entendidas. A discussão sobre o modo como se dá a aquisição de L2 tem se mostrado complexa na literatura. O PB e o inglês diferem em relação à satisfação do traço EPP, responsável pelo preenchimento da posição de sujeito sintático nas línguas naturais. O PB tem se aproximado do inglês quanto ao preenchimento de sujeitos referenciais, mas não no que concerne aos sujeitos expletivos, apresentando ainda construções de tópico-sujeito, características que podem interferir na aquisição do valor paramétrico negativo para sujeitos nulos no inglês. A fim de investigar as mudanças que vêm afetando o PB nesse âmbito e observar o quanto aprendizes de inglês como FL falantes de PB se mostram sensíveis à agramaticalidade de sentenças com sujeito nulo no inglês em diferentes contextos, foram realizados dois experimentos, ambos com uma tarefa de julgamento de gramaticalidade. O experimento piloto foi realizado com aprendizes dos níveis básico e avançado e apresentava dois tipos distintos de sentenças (Tipo 1: sujeito nulo e Tipo 2: tópico + sujeito nulo); e um experimento final com aprendizes dos níveis básico, intermediário e avançado, com três tipos de sentenças (Tipo 1: sujeito nulo, Tipo 2: tópico + sujeito nulo e Tipo 3: conjunção + sujeito nulo). Dada a complexidade da gramática do PB, nossa hipótese de trabalho é de que não se observe uma transferência total, mas o surgimento de uma interlíngua que ora se aproxima, ora se afasta da gramática-alvo, refletindo a sobrecarga de processamento que lidar com as duas gramáticas impõe. Os resultados sustentam a hipótese ao indicar que (i) o valor do parâmetro do sujeito nulo parece ser transferido da L1 para a L2, uma vez que foi encontrado um alto número de respostas incorretas; (ii) a interferência se dá mais fortemente no âmbito dos sujeitos expletivos; (iii) há interferência de restrições gerais da gramática da L1 (restrições a V1) na L2; e (iv) a interferência diminui em função do aumento da proficiência em L2. Além disso, nas sentenças do tipo 2, parece haver uma possível interferência do PB que acaba por mascarar a omissão do expletivo, o que indica uma dificuldade de integração de informações provenientes das limitações decorrentes da necessidade de processar duas línguas em momentos específicos de modo a evitar a interferência da língua indesejada, no caso a L1, que por ainda ser dominante exige mais recursos para ser inibida (SORACE, 1999, 2011).
Resumo:
Introdução: A preocupação em torno do uso irracional de psicofármacos tem sido observada em diversos países, constituindo-se uma questão importante para a saúde pública mundial. No Brasil, a promoção do uso racional de psicofármacos é um desafio para a atenção primária, sendo importante caracterizar sua dimensão psicossocial. Objetivos. O artigo 1, com características descritivas, tem como objetivo caracterizar o uso de psicofármacos em unidades de saúde da família segundo a presença de transtornos mentais comuns (TMC) e segundo as principais características socioeconômicas e demográficas. O artigo 2, com um caráter analítico, tem como objetivo avaliar o papel da rede social no uso de cada um destes psicofármacos segundo a presença de TMC. Métodos O estudo utiliza um delineamento seccional e abarca a primeira fase de coleta de dados de dois estudos em saúde mental na atenção primária. Esta se deu em 2006/2007 para o estudo 1 (Petrópolis, n= 2.104) e em 2009/2010 para o estudo2 (São Paulo, n =410, Rio de Janeiro, n= 703, Fortaleza , n=149 e Porto Alegre, n= 163 participantes). Ambos os estudos possuem o mesmo formato no que se refere à coleta de dados, seu processamento e revisão, resultando em uma amostra de 3.293 mulheres atendidas em unidades de saúde da família de cinco diferentes cidades do país. Um questionário objetivo com perguntas fechadas foi utilizado para a coleta de informações socioeconômicas e demográficas. O uso de psicofármacos foi avaliado através de uma pergunta aberta baseada no auto-relato do uso de medicamentos. A presença de TMC foi investigada através do General Health Questionnaire, em sua versão reduzida (GHQ-12). O nível de integração social foi aferido através do índice de rede social (IRS), calculado a partir de perguntas sobre rede social acrescentado ao questionário geral. No estudo descritivo (artigo 1), a frequência do uso de antidepressivos e o uso de benzodiazepínicos na população de estudo foram calculadas para cada cidade, tal como a frequência do uso destes psicofármacos entre as pacientes com transtornos mentais comuns. A distribuição do uso de cada um destes psicofármacos segundo as principais características socioeconômicas, demográficas e segundo transtornos mentais comuns foi avaliada através do teste de qui-quadrado de Pearson. No estudo analítico (artigo 2), a associação entre o nível de integração social e o uso exclusivo de cada um dos psicofármacos foi analisada através da regressão logística multivariada, com estratificação segundo a presença de TMC. Resultados: A frequência do uso de psicofármacos foi bastante heterogênea entre as cidades, destacando-se, porém, a importância do uso de benzodiazepínicos frente ao uso de antidepressivos em sua maioria. A proporção do uso de psicofármacos, sobretudo antidepressivos, foi predominantemente baixa entre as pacientes com TMC. Entre elas, o uso de antidepressivos mostrou-se positivamente associado ao isolamento social, enquanto o uso de benzodiazepínicos associou-se negativamente a este. Conclusão: Os resultados colaboram para a caracterização do uso de psicofármacos em unidades de saúde da família e para a discussão acerca de sua racionalidade. Destaca-se a importância de avaliar a dimensão psicossocial que envolve o uso destas substâncias com vistas ao desenvolvimento de estratégias de cuidado mais efetivas
Resumo:
A discriminação de fases que são praticamente indistinguíveis ao microscópio ótico de luz refletida ou ao microscópio eletrônico de varredura (MEV) é um dos problemas clássicos da microscopia de minérios. Com o objetivo de resolver este problema vem sendo recentemente empregada a técnica de microscopia colocalizada, que consiste na junção de duas modalidades de microscopia, microscopia ótica e microscopia eletrônica de varredura. O objetivo da técnica é fornecer uma imagem de microscopia multimodal, tornando possível a identificação, em amostras de minerais, de fases que não seriam distinguíveis com o uso de uma única modalidade, superando assim as limitações individuais dos dois sistemas. O método de registro até então disponível na literatura para a fusão das imagens de microscopia ótica e de microscopia eletrônica de varredura é um procedimento trabalhoso e extremamente dependente da interação do operador, uma vez que envolve a calibração do sistema com uma malha padrão a cada rotina de aquisição de imagens. Por esse motivo a técnica existente não é prática. Este trabalho propõe uma metodologia para automatizar o processo de registro de imagens de microscopia ótica e de microscopia eletrônica de varredura de maneira a aperfeiçoar e simplificar o uso da técnica de microscopia colocalizada. O método proposto pode ser subdividido em dois procedimentos: obtenção da transformação e registro das imagens com uso desta transformação. A obtenção da transformação envolve, primeiramente, o pré-processamento dos pares de forma a executar um registro grosseiro entre as imagens de cada par. Em seguida, são obtidos pontos homólogos, nas imagens óticas e de MEV. Para tal, foram utilizados dois métodos, o primeiro desenvolvido com base no algoritmo SIFT e o segundo definido a partir da varredura pelo máximo valor do coeficiente de correlação. Na etapa seguinte é calculada a transformação. Foram empregadas duas abordagens distintas: a média ponderada local (LWM) e os mínimos quadrados ponderados com polinômios ortogonais (MQPPO). O LWM recebe como entradas os chamados pseudo-homólogos, pontos que são forçadamente distribuídos de forma regular na imagem de referência, e que revelam, na imagem a ser registrada, os deslocamentos locais relativos entre as imagens. Tais pseudo-homólogos podem ser obtidos tanto pelo SIFT como pelo método do coeficiente de correlação. Por outro lado, o MQPPO recebe um conjunto de pontos com a distribuição natural. A análise dos registro de imagens obtidos empregou como métrica o valor da correlação entre as imagens obtidas. Observou-se que com o uso das variantes propostas SIFT-LWM e SIFT-Correlação foram obtidos resultados ligeiramente superiores aos do método com a malha padrão e LWM. Assim, a proposta, além de reduzir drasticamente a intervenção do operador, ainda possibilitou resultados mais precisos. Por outro lado, o método baseado na transformação fornecida pelos mínimos quadrados ponderados com polinômios ortogonais mostrou resultados inferiores aos produzidos pelo método que faz uso da malha padrão.