825 resultados para Desenvolvimento de competências


Relevância:

20.00% 20.00%

Publicador:

Resumo:

A doença de Parkinson (DP) é a segunda doença neurodegenerativa mais frequente, depois da doença de Alzheimer, com uma incidência de aproximadamente 3,3% na população brasileira acima dos 60 anos. Ela é caracterizada por uma perda dos neurônios dopaminérgicos da parte compacta da substância negra e pela presença de inclusões protéicas intracelulares denominadas corpúsculos de Lewy nos neurônios sobreviventes. A DP tem uma etiologia complexa que envolve interações genes-ambiente e múltiplos genes de susceptibilidade. Nesse contexto, mutações de perda de função no gene da glicocerebrosidase (GBA) têm sido bem validadas como importantes fatores de risco para a DP. Esse gene está localizado na região 1q21 e compreende 11 exons que codificam a enzima lisossômica glicocerebrosidase. O principal objetivo deste estudo foi investigar se alterações no gene GBA constituem um fator de predisposição para o desenvolvimento da DP na população brasileira. Para isso, um grupo de 126 pacientes brasileiros, não-aparentados, com DP (24 casos familiares e 102 isolados; idade média 66,4 11,4) foram analisados para mutações no GBA através do seqüenciamento completo de todos os exons e alguns íntrons. Sete alterações e um alelo recombinante, anteriormente encontrados em pacientes com a DP analisados em outros estudos, foram detectados (K(-)27R, IVS2+1G>A, N370S, L444P, T369M, A456P, E326K e RecNciI), assim como, uma variante nunca antes identificada associada à DP (G325G) e uma nova mutação (W378C), num total de 18 pacientes (14,3%). Além disso, foram encontradas três alterações intrônicas (c.454+47G>A, c.589-86A>G e c.1225-34C>A), que constam do banco de SNPs, entretanto, não foram associadas a nenhuma doença. Dentre todas as variantes identificadas, três são comprovadamente patogênicas (IVS2+1G>A, L444P e N370S) e foram encontradas em 5,5% da amostra, não sendo detectadas na amostra controle, indicando uma freqüência significativamente alta dessas mutações em pacientes com DP quando comparadas aos controles (P=0,0033). Esses resultados reforçam a associação entre o gene GBA e a DP na população brasileira, além de apoiar a hipótese de que alterações nesse gene representam um importante fator de susceptibilidade ao desenvolvimento da DP

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A importância da empatia como um elemento indispensável para o desenvolvimento infantil saudável tem sido apontada em diversos estudos. Contudo, são muito poucos os registros de pesquisas nacionais sobre programas desenvolvidos com o objetivo de promovê-la, ou de potencializar o seu desenvolvimento. Embora parta de uma base biológica inata, a empatia depende da estimulação social, das práticas educativas e do contexto em que as crianças crescem, para desabrochar plenamente. Ao lado dos pais, a escola, onde as crianças passam grande parte do seu dia, ocupa um lugar de destaque na educação infantil. Considerando a importância da empatia para o desenvolvimento infantil saudável, e a influência que a educação escolar pode ter sobre ela, propôs-se a realização de um programa com o objetivo de potencializar o seu desenvolvimento, na escola. O objetivo geral deste estudo foi desenvolver o programa e testar a sua eficácia. Os objetivos específicos foram os seguintes: a) Elaborar e descrever os procedimentos utilizados na intervenção; b) Verificar se, após a conclusão do programa, os participantes apresentariam níveis significativamente mais elevados nas medidas de empatia, em comparação à linha de base; c) Verificar se, após a conclusão do programa, os participantes do grupo experimental apresentariam níveis significativamente mais elevados nas medidas de empatia em comparação às crianças do grupo controle; d) Adicionalmente, continuar a normatizar o Teste de Empatia em Ceninhas (TEC: Motta, 2005). Para a avaliação da empatia, usamos: uma medida de auto-relato a Escala de Empatia para Crianças e Adolescentes (EECA: Bryant, 1982); uma medida de empatia acurada o TEC (Motta, 2005); a avaliação do professor o Teachers Rating of Empathy (Barnett & cols., 1982); e a avaliação dos alunos o Empatia do Coleguinha, adaptado do Peers Rating of Empathy (Barnett & cols., 1982). Participaram do programa 43 alunos, da segunda e terceira série do ensino fundamental, de uma escola municipal do Rio de Janeiro. Cada turma foi dividida, aleatoriamente, em dois grupos, um deles experimental/placebo (EP experimental no primeiro segmento da pesquisa, placebo, no segundo) e o outro, placebo/experimental (PE placebo no primeiro segmento da pesquisa, experimental, no segundo). Seguimos o modelo longitudinal pré e pós-teste. Na primeira fase da pesquisa, os grupos EP participaram de 11 encontros de uma hora de duração, com atividades orientadas para o desenvolvimento da empatia, enquanto os grupos PE participaram de atividades de recreação infantil. Na segunda fase, os grupos PE receberam o mesmo tratamento oferecido aos grupos EP, na primeira fase, vice-versa. Os resultados indicaram que o treinamento beneficiou a empatia dos participantes da pesquisa. Sugere-se que a implementação de programas para o desenvolvimento da empatia pode contribuir para a promoção e o aperfeiçoamento desta habilidade nas escolas.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Ilha Grande situa-se na chamada Costa Verde do Estado do Rio de Janeiro, tem a totalidade de seu território protegido legalmente e vem sendo alvo de especuladores e investidores cujos interesses são, principalmente, explorar o potencial natural do bioma de Mata Atlântica. Observa-se um processo de transformação local em diversos aspectos que englobam o meio ambiente e a sociedade, como a degradação ambiental e o deslocamento da comunidade tradicional. O Poder Público manteve-se distante ou mesmo ausente por décadas, o que possibilitou a instalação de problemas ambientais e a configuração de conflitos na esfera do planejamento e gestão. Considerando-se a relevância socioambiental deste território insular e, em especial, com a implantação do Centro de Estudos Ambientais e Desenvolvimento Sustentável (CEADS) da Universidade do Estado do Rio de Janeiro (UERJ) na Enseada de Dois Rios, o presente estudo tem como objetivo identificar a dinâmica ambiental estabelecida na ilha. Os aspectos relacionados ao uso e ocupação do solo e à fragilidade ambiental são fundamentais para a análise integrada, para a compreensão da configuração atual do território e para a formulação de diretrizes de desenvolvimento adequadas à complexa realidade da Ilha Grande, cuja atividade econômica está pautada no turismo. Identificou-se como as principais causas dos problemas ambientais e dos conflitos de gestão: o caótico ordenamento do território, a falta de infraestrutura de serviços, a dificuldade de mobilização social, a falta de integração entre as políticas públicas e competências administrativas, a precariedade da fiscalização, a impunidade aos que não cumpriram a normatização em vigor e, a não observância da fragilidade ambiental do geossistema Ilha Grande.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os hidrocarbonetos policíclicos aromáticos (HPA) são amplamente estudados na área de meio ambiente, em diversas matrizes ambientais como ar, água, solo e sedimento, devido a sua toxicidade, potencial mutagênico e carcinogênico. Por conta disto, as agências ambientais de países desenvolvidos listaram dezesseis HPA como sendo poluentes prioritários. As legislações a nível mundial não estipulam limites para estes compostos para ar ambiente, somente para emissões de fontes fixas e móveis e ambientes ocupacionais, mas existem diversos estudos, mais especificamente para os 16 prioritários HPA e muito pouco para os homólogos alquilados. Os HPA alquilados são mais abundantes, persistentes e frequentemente mais tóxicos que os não alquilados e a toxicidade aumenta com o número de substituições alquil sobre os núcleos aromáticos. As legislações ambientais em todo o mundo não realizam o controle em nenhuma matriz ambiental para os HPA alquilados. Neste trabalho foi desenvolvido um método para análise dos HPA e seus homólogos alquilados, utilizando cromatografia de fase gasosa acoplado a um detector de espectrometria de massa e com um sistema de injeção para grande volume, associado à vaporização com temperatura programada, que permitiu um nível de detecção na faixa de 0,70 até 103,6 ng mL-1, sendo possível analisar as amostras de material particulado oriundas de emissões veiculares. As amostras foram coletadas de acordo com a Norma ABNT NBR14489, em um dinamômetro de bancada para motor do ciclo diesel (Ciclo de 13 pontos). Os resultados encontrados foram na faixa de 0,5 ng mL-1 até 96,9 ng mL-1 Os resultados indicaram que motores a diesel/ biodiesel têm uma contribuição muito grande na formação destes HPA e homólogos alquilados

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neisseria meningitidis é uma das principais causas de meningite bacteriana e septicemia em todo o mundo, acometendo principalmente crianças menores de 4 anos. Atualmente, não existe uma vacina universal contra o meningococo B (MenB). A imunidade protetora contra o meningococo caracteriza-se pela presença e persistência de anticorpos bactericidas, porém pouco se sabe sobre os mecanismos de desenvolvimento desta memória sorológica. Avaliamos em modelo animal e em humanos, a geração e manutenção das células secretoras de anticorpos (ASC) e dos linfócitos B de memória (LBm) após vacinação contra MenB. Utilizamos como referência a vacina diftérica (dT ou DTP), considerada ter ótima eficácia em humanos. Para o estudo em modelo animal, grupos de 6 a 8 camundongos suíços, fêmeas, de 5 a 6 semanas, foram imunizados com 3 doses da vacina VA-MENGOC-BC ou DTP, via intramuscular, com intervalo de 2 semanas entre as doses. Aproximadamente 2, 4 ou 6 meses após a última dose, os animais receberam a dose reforço. A vacina anti-MenB induziu uma resposta primária de ASC maior que a resposta à dose reforço. Ao contrário, a resposta de ASC à vacina dT foi maior após o booster. A resposta de LBm anti-MenB permaneceu constante (média de 1%) ao longo de todo o estudo, mas a resposta ao toxóide diftérico (TD) foi maior após o booster (média de 1,9%) que após a imunização primária. A concentração de IgG, anticorpos bactericidas e opsonizantes contra MenB foi dose-dependente e foi reativada após a administração das doses reforços. Esses resultados sugerem que os LBm presentes no baço foram responsáveis pela forte resposta de anticorpos observada após a dose reforço. Para o TD, ambos ASC e LBm foram importantes na manutenção da memória sorológica. Para o estudo em humanos, seis voluntários foram imunizados com 3 doses da vacina VA-MENGOC-BC, via intramuscular, com intervalo de 6 a 7 semanas entre as doses. Seis meses após a imunização primária, os indivíduos receberam uma dose reforço. Outro grupo de voluntários (n = 5) foi imunizado com uma dose reforço da vacina dT. Somente após a terceira dose da vacina anti-MenB foi possível detectar a presença de LBm em todos os indivíduos. Seis meses após a imunização primária, a frequência de LBm voltou ao seu nível basal e não foi reativada após a dose booster. A vacina dT também induziu uma resposta de LBm heterogênea, mas esta foi 5 vezes maior que a induzida por VA-MENGOC-BC. A resposta de anticorpos funcionais anti-MenB foi de curta duração com pequena reativação após a dose reforço. As duas vacinas induziram diferentes frequências de LT de memória central (TCM) e de memória efetora (TEM) após a vacinação primária e após o booster. A resposta à dose booster foi caracterizada pelo aumento da população de linfócitos TCM e diminuição de TEM. A população de linfócitos TCM apresentou maior ativação (CD69+) que os linfócitos TEM, especialmente após a vacinação contra MenB. Concluindo, os dados desta tese indicam que a administração de 3 doses da vacina VA-MENGOC-BC teve uma eficiência limitada em humanos e sugerem que a baixa eficácia da vacina, quando utilizada na década de 90 em São Paulo e no Rio de Janeiro, pode estar relacionada à deficiência na geração e manutenção de LBm específicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O estado nutricional e hormonal em fases iniciais de desenvolvimento (gestação e lactação) está relacionado a alterações epigenéticas, que podem levar ao desenvolvimento de doenças. A obesidade infantil está relacionada com a ocorrência da obesidade na idade adulta, resistência à insulina e maior risco cardiometabólico. Em estudos experimentais, a superalimentação neonatal causa obesidade e aumenta o risco de doenças cardiovasculares. Estes animais apresentam obesidade visceral, hiperfagia, hiperleptinemia e hipertensão na idade adulta. Previamente, demonstramos que a hiperleptinemia neonatal causa hiperfunção da medula adrenal e microesteatose na idade adulta. No presente estudo avaliamos a função adrenal de ratos adultos obesos no modelo de superalimentação neonatal por redução do tamanho da ninhada e a sensibilidade as catecolaminas no tecido adiposo visceral (TAV) e no fígado. Ao nascimento todas as ninhadas tiveram seu número de filhotes ajustados para 10. Para induzir a superalimentação neonatal, o tamanho da ninhada foi reduzido de dez para três filhotes machos no terceiro dia de lactação até o desmame (SA), enquanto que o grupo controle permaneceu com 10 filhotes durante toda a lactação. Após o desmame, os ratos tiveram livre acesso à dieta padrão e água até 180 dias (1 animal de cada ninhada, n = 7). O TAV e as glândulas adrenais foram pesadas. As contrações hormonais séricas, o conteúdo hepático de glicogênio e triglicerídeos foram avaliados por kits comerciais. O conteúdo e a secreção de catecolaminas adrenais foram avaliados utilizando o método do trihidroxindol. O conteúdo dos hormônios eixo hipotálamo-hipófise-córtex adrenal, das enzimas da via de síntese das catecolaminas na glândula adrenal, ADRB2 no fígado e ADRB3 no TAV foram determinados por Western blotting ou imunohistoquímica. As diferenças foram consideradas significativas quando p <0,05. Aos 180 dias de vida, o grupo SA apresentou maior massa corporal (+15%), maior consumo alimentar (+15%) e maior adiposidade visceral (+79%). Os hormônios do eixo hipotálamo-hipófise-córtex-adrenal não foram alterados. O grupo SA apresentou maior expressão de tirosina hidroxilase e de DOPA descarboxilase (+31% e 90%, respectivamente); conteúdo de catecolaminas adrenais (absoluta: 35% e relativa: 40%), e secreção de catecolaminas, tanto basal quanto estimulada por cafeína (+35% e 43%, respectivamente). O conteúdo ADRB3 no TAV não foi alterado nos grupo SA, entretanto o ADRB2 no fígado apresentou-se menor (-45%). O grupo SA apresentou maior conteúdo de glicogênio e triglicerídeos no fígado (+79% e +49%, respectivamente), além de microesteatose. A superalimentação neonatal resulta em hiperativação adrenomedular e aparentemente está associada a preservação da sensibilidade às catecolaminas no VAT. Adicionalmente sugerimos que o maior conteúdo de glicogênio e triglicerídeos hepático seja devido a menor sensibilidade as catecolaminas. Tal perfil pode contribuir para a disfunção metabólica hepática e hipertensão arterial que são características deste modelo de obesidade programada.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A Física das Radiações é um ramo da Física que está presente em diversas áreas de estudo e se relaciona ao conceito de espectrometria. Dentre as inúmeras técnicas espectrométricas existentes, destaca-se a espectrometria por fluorescência de raios X. Esta também possui uma gama de variações da qual pode-se dar ênfase a um determinado subconjunto de técnicas. A produção de fluorescência de raios X permite (em certos casos) a análise das propriedades físico-químicas de uma amostra específica, possibilitando a determinação de sua constituiçõa química e abrindo um leque de aplicações. Porém, o estudo experimental pode exigir uma grande carga de trabalho, tanto em termos do aparato físico quanto em relação conhecimento técnico. Assim, a técnica de simulação entra em cena como um caminho viável, entre a teoria e a experimentação. Através do método de Monte Carlo, que se utiliza da manipulação de números aleatórios, a simulação se mostra como uma espécie de alternativa ao trabalho experimental.Ela desenvolve este papel por meio de um processo de modelagem, dentro de um ambiente seguro e livre de riscos. E ainda pode contar com a computação de alto desempenho, de forma a otimizar todo o trabalho por meio da arquitetura distribuída. O objetivo central deste trabalho é a elaboração de um simulador computacional para análise e estudo de sistemas de fluorescência de raios X desenvolvido numa plataforma de computação distribuída de forma nativa com o intuito de gerar dados otimizados. Como resultados deste trabalho, mostra-se a viabilidade da construção do simulador através da linguagem CHARM++, uma linguagem baseada em C++ que incorpora rotinas para processamento distribuído, o valor da metodologia para a modelagem de sistemas e a aplicação desta na construção de um simulador para espectrometria por fluorescência de raios X. O simulador foi construído com a capacidade de reproduzir uma fonte de radiação eletromagnética, amostras complexas e um conjunto de detectores. A modelagem dos detectores incorpora a capacidade de geração de imagens baseadas nas contagens registradas. Para validação do simulador, comparou-se os resultados espectrométricos com os resultados gerados por outro simulador já validado: o MCNP.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho apresenta uma arquitetura geral para evolução de circuitos eletrônicos analógicos baseada em algoritmos genéticos. A organização lógica privilegia a interoperabilidade de seus principais componentes, incluindo a possibilidade de substituição ou melhorias internas de suas funcionalidades. A plataforma implementada utiliza evolução extrínseca, isto é, baseada em simulação de circuitos, e visa facilidade e flexibilidade para experimentação. Ela viabiliza a interconexão de diversos componentes aos nós de um circuito eletrônico que será sintetizado ou adaptado. A técnica de Algoritmos Genéticos é usada para buscar a melhor forma de interconectar os componentes para implementar a função desejada. Esta versão da plataforma utiliza o ambiente MATLAB com um toolbox de Algoritmos Genéticos e o PSpice como simulador de circuitos. Os estudos de caso realizados apresentaram resultados que demonstram a potencialidade da plataforma no desenvolvimento de circuitos eletrônicos adaptativos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A crescente inserção dos psicólogos na rede de serviços do Sistema Único de Saúde (SUS) e a demanda por novas habilidades e competências profissionais vem gerando muitas discussões em relação aos saberes e fazeres da Psicologia. Neste contexto, este trabalho tem como objetivo descrever a formação e as práticas dos psicólogos inseridos no SUS do Município de Umuarama-Pr, tendo como parâmetro a integralidade. Para tanto, foi realizada uma pesquisa qualitativa. Os dados foram obtidos através de entrevistas com roteiro semi-estruturado com os psicólogos em atuação nos serviços do SUS e profissionais envolvidos com a gestão da saúde no município. Para a análise foi utilizado o método de análise do conteúdo, com ênfase em três eixos: formação acadêmica, práticas profissionais e percepção sobre o papel do psicólogo no SUS. Os resultados demonstraram uma formação acadêmica orientada para o modelo clínico tradicional, detectando algumas lacunas para o trabalho na área da saúde pública. Em relação à atuação do psicólogo na saúde, as atividades que realizam incluem psicoterapia individual, grupal, visita domiciliar, reunião/orientação de equipe. Os entrevistados identificam uma falta de reconhecimento do trabalho da Psicologia no SUS por parte da população, da gestão e dos próprios psicólogos, talvez por pouca clareza de suas possibilidades de atuação. Foram identificadas algumas tendências de mudança na formação profissional e de inovação nas práticas profissionais nos serviços da saúde pública. Contudo, alguns desafios precisam ser superados para a efetiva construção da integralidade no trabalho do psicólogo no município, como por exemplo, a formação profissional e a organização dos serviços, fazendo-se necessária a continuidade de discussões sobre a formação e a configuração de suas práticas, para que possam contribuir plenamente para a inserção e desenvolvimento da Psicologia no SUS.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Neste trabalho, foi desenvolvido um simulador numérico baseado no método livre de malhas Smoothed Particle Hydrodynamics (SPH) para a resolução de escoamentos de fluidos newtonianos incompressíveis. Diferentemente da maioria das versões existentes deste método, o código numérico faz uso de uma técnica iterativa na determinação do campo de pressões. Este procedimento emprega a forma diferencial de uma equação de estado para um fluido compressível e a equação da continuidade a fim de que a correção da pressão seja determinada. Uma versão paralelizada do simulador numérico foi implementada usando a linguagem de programação C/C++ e a Compute Unified Device Architecture (CUDA) da NVIDIA Corporation. Foram simulados três problemas, o problema unidimensional do escoamento de Couette e os problemas bidimensionais do escoamento no interior de uma Cavidade (Shear Driven Cavity Problem) e da Quebra de Barragem (Dambreak).

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta pesquisa tem por objetivo discutir os modelos de leitura subjacentes ao trabalho proposto em sites de ensino de Francês de Língua Estrangeira (FLE). Para compreender como se apresentam os modelos de leitura nesses contextos, consideramos como base teórica de partida a concepção sócio-interacional da língua. Para tal, contextualizamos a necessidade de uma constante reflexão acerca do processo de ensino/aprendizagem de FLE. Em seguida, apresentamos a motivação para desenvolver a pesquisa e apresentamos, resumidamente, o nosso percurso metodológico. Destacamos a revisão bibliográfica, apresentando os modelos de leitura e as estratégias que envolvem essa atividade em meio virtual. O primeiro momento de nossa pesquisa foi de cunho exploratório porque não tínhamos conhecimento do universo de sites voltados para o ensino de FLE. A pesquisa é, também, de natureza documental uma vez que trabalhamos com sites tomados como documentos. Optamos pelo caráter descritivo pois, a partir da descrição, baseada nos critérios de análise, do material retirado dos sites que fazem parte do nosso corpus, é que respondemos e confirmamos nossas hipóteses. Nosso método de análise é o qualitativo porque buscamos interpretar, a partir de nossas observações dos documentos selecionados em um primeiro momento. Após estabelecer os critérios, partimos para a discussão e análise dos dados e, em seguida, fazemos algumas orientações aos professores que quiserem utilizar o material disponibilizado pelos sites analisados. No capítulo final, fazemos considerações sobre a pesquisa, apresentamos os resultados das análises, explicitamos a importância do trabalho para a construção do conhecimento acerca da leitura em meio virtual, e, finalmente, recomendamos novos estudos, diante do que encontramos, para que o ensino da leitura em Língua Estrangeira contribua para a formação de leitores autônomos

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A especificação dos requisitos de software pressupõe que se conheçam os requisitos do sistema do que será parte. Os requisitos do sistema, por sua vez, pressupõem o conhecimento do negócio (business) onde o sistema será utilizado. Para que estes conhecimentos sejam obtidos é importante o envolvimento dos stakeholders tanto no nível de sistema quanto no nível de negócio. As literaturas sobre Engenharia de Requisitos, Engenharia de Software e Engenharia de Sistemas concordam que o envolvimento dos stakeholders é fundamental. O tratamento dispensado ao assunto, no entanto, é pequeno, dada a importância do tema. Esta dissertação, utilizando conceitos da Engenharia de Métodos Situacionais e de Design Science, apresenta o ZEP Framework, um artefato, produzido com o software EPF Composer, que permite a criação de métodos para envolver o stakeholder. Estes métodos, para serem criados, devem levar em consideração as peculiaridades da organização, dos recursos disponíveis e do projeto em si. São apresentados, ainda, alguns cenários, na área de Turismo, como exemplos da utilização do framework.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação tem por objetivo o estudo da narrativa dedicada ao público infanto-juvenil através de seus sumários e das estratégias textuais e discursivas que levaram a coleção ao grande recorde de venda no período de 2007. Trata-se de uma narrativa, de autoria a Dav Pilkey, intitulada As Aventuras do Capitão Cueca. Fazem parte deste corpus os quatro volumes iniciais da coleção e seus respectivos sumários analisados dentro da teoria laboviana sobre as narrativas. O estudo proposto analisa o tipo de texto e que estruturas podem justificar o porquê de os volumes serem considerados um romance épico. Analisa-se, a importância das construções metafóricas e referenciais para a construção dos personagens e para a progressão textual. Postulam-se três tipos de metáforas - a do poder, a da ação e a da aventura, que, participam na superestrutura textual, construindo a história como um conjunto de elementos composto, tanto pelos referentes quanto pelas escolhas lexicais, já que, por meio do léxico, são delineadas as pistas necessárias à progressão textual o que, consequentemente, propicia um texto com articulação e suspense, o que torna a leitura mais próxima do público que a coleção deseja atingir. Mostrou-se necessário, também, um estudo mais acurado do gênero e da tipologia textual, visto que, nesse momento, nos utilizamos da própria denominação do subtítulo da coleção: romance épico. A organização da microestrutura do texto na perspectiva da relação metáfora e referentes permitiu o reconhecimento de uma tríade na organização da macroestrutura da narrativa, justificando a referência à narrativa épica e às peripécias vividas pelos personagens. É essa complexidade textual que torna a coleção tão singular e atrativa aos olhos do público a que se destina, confirmando a essência do processo de interação entre texto/ leitor/ produtor, em um processo dialógico. Embasam esse estudo as teorias sócio-cognitivas de Lakoff e Johnson (2002) e Sardinha (2007), Koch (2002), Cavalcante (2011), Marcuschi (2008). Concluí-se que a arquitetura do texto pode, de fato, interferir no processo de desenvolvimento da competência de leitura dos estudantes, prendendo seu interesse, o que faz com que haja uma construção de interação. Essa possibilidade, por analogia, pode ser, de um lado, um ponto de desvendamento para o sucesso de alguns livros publicados e que se tornam absoluto sucesso em um dado tempo entre os jovens; de outro lado, pode colocar o professor e a escola do século XXI à frente de novos desafios não só no que tange ao desenvolvimento das diferentes habilidades de leitura, mas também frente ao que é importante do ponto de vista discursivo para o incentivo à leitura, em um mundo marcado semioticamente pela imagem

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O desenvolvimento da Internet indica que um grande número de pessoas, a todo instante, tem acesso aos discursos em circulação na rede. Juntamente com a chegada das novas tecnologias, observamos a proliferação de sites que buscam orientar diversas atividades profissionais através de dicas que oferecem de maneira imediata o segredo do sucesso. Assim, sabendo que a Internet ocupa uma posição de poder privilegiada na construção dos sentidos que circulam atualmente na sociedade, e que o ciberespaço aceita qualquer grupo ou indivíduo que queira difundir informações por conta própria, seja qual for sua origem geográfica e social, bastando possuir um mínimo de competências técnicas, esta pesquisa se propõe a analisar dicas direcionadas ao professor retiradas da rede, para verificar imagem(ns) discursiva(s) do trabalho desse profissional que está(ão) sendo construída(s). O site selecionado foi o Profissão Mestre, que, como se apresenta, é especialmente voltado para os profissionais de Educação. O enfoque teórico está centrado num possível diálogo entre estudos do trabalho desenvolvidos por Schwartz (1997,1998, 2002) e Daniellou (2002) e a perspectiva discursiva (Maingueneau, 1987,1998, 2002). A análise do corpus tem como referência as marcas de heterogeneidade enunciativa, especialmente o não polêmico, definido por Ducrot (1987), ao esboçar sua teoria polifônica. A polêmica estabelecida pela análise nos comprovou a existência de vozes em circulação que configuram professores que apresentam atitudes, que segundo o site, são exatamente aquilo de que a prática docente deveria se afastar. Por isso, a orientação das dicas ao professor do que fazer se manifestou, na maioria das vezes, a partir de enunciados negativos contrários a pontos de vista de um outro, o qual pudemos identificar como o professor esqualificado. Portanto, observar esse perfil negado pelas dicas de nossos textos foi fundamental para traçarmos uma posição entre qualificadodesqualificado, que levou às imagens que caracterizaram o trabalho do professor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A tecnologia da informação (TI) transformou o mundo nas últimas décadas e suas contribuições no processamento e disseminação da informação provocaram mudanças radicais no modo de viver das pessoas e afetou profundamente a gestão e a estrutura das organizações. Neste novo cenário, a literatura de negócios vem apresentando registros de desperdício de investimentos na área de tecnologia da informação. As dificuldades em reconhecer valor nos investimentos em TI e os desafios enfrentados na gestão de equipes de desenvolvimento de software são aspectos considerados no problema a ser pesquisado, a saber: a área de TI carece de sistemas de controle gerencial que poderiam minimizar riscos de desperdício de recursos, de baixa produtividade ou de fracasso na implantação do sistema a ser desenvolvido?O objetivo geral desta pesquisa é investigar as dificuldades enfrentadas pelas equipes de desenvolvimento de software para avaliar se há ou não desperdício de recursos, segundo a percepção dos entrevistados e, ainda, se há ou não carência de controle gerencial. Investigar quais poderiam ser os indicadores mais adequados para um sistema de controle gerencial voltados para esta área de atuação da TI e mapear fatores de sucesso estão entre os objetivos específicos da pesquisa. Do ponto de vista metodológico, esta é uma pesquisa exploratória que adota o procedimento de estudo de caso baseado em análise qualitativa. Os resultados alcançados confirmam o problema de desperdício de recursos e de baixa produtividade nas equipes de TI da empresa analisada e apontam para a carência de mecanismos ou processos de controle gerencial.