5 resultados para Avaliação das inteligências múltiplas
em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul
Resumo:
O objetivo do presente estudo foi analisar o processo de identificação das altas habi-lidades/superdotação em crianças da faixa etária de quatro a seis anos, consideran-do-se uma concepção de inteligência que evidencie suas múltiplas expressões e um entendimento dinâmico dos indicadores que definem os sujeitos que apresentam es-tas características. As propostas teóricas de dois autores contribuíram para que es-tas concepções fossem alicerçadas: a Teoria das Inteligências Múltiplas, de Howard Gardner e a Teoria dos Três Anéis, de Joseph Renzulli. Assim, este estudo caracte-rizou-se por enfocar a identificação das altas habilidades/superdotação a partir de um paradigma qualitativo e teve como efeito a sistematização de um procedimento que reconhece não só o sujeito cognoscente, nas suas diferentes formas de conhe-cer o mundo e de expressar a inteligência, mas também nos seus componentes afe-tivos, psicomotores e sociais, enfatizando suas singularidades e potencialidades, re-conhecendo suas limitações e valorizando sua interação com o meio onde vive. As informações para o estudo foram obtidas através da filmagem das atividades espon-tâneas dos sujeitos selecionados - dois meninos e uma menina -, entrevistas com as famílias e professores, produções das crianças reunidas em um Portfólio e informa-ções arquivadas nos prontuários do Centro de Desenvolvimento, Estudos e Pesqui-sas nas Altas Habilidades -CEDEPAH. O referencial para registro destas imagens foi o desenvolvimento de atividades que apresentassem início, meio e fim, nomeadas como Estruturas Narrativas. Um primeiro conjunto de cenas foi formado considerando as atividades das três crianças, sujeitos desta investigação. Um segundo recorte foi realizado nesse conjunto, orientado pela aparição de comportamentos indicativos das seguintes categorias: linguagem, matemática, ciências, música, social, corporal-cinestésico, espacial, artes visuais e estilos de trabalho. A análise do material transcrito foi efetuada considerando duas dimensões: a visual e a verbal. Os resultados obtidos nesta análise permitem concluir que podem ser evidenciados os indicadores de altas habilidades/superdotação em crianças nesta faixa etária. Além disto, enfatizam, também, a importância de procedimentos de identificação norteados pela provisão de atividades estimuladoras e desafiantes para as crianças e pela multiplicidade de olhares, remetendo, desta forma, à participação de profissionais de outras áreas nesta ação. O processo de identificação aqui proposto é percebido como um processo contínuo, garantido pelo acompanhamento dos sujeitos ao longo do tempo e em diferentes situações de seu cotidiano. Esse entendimento resulta num perfil narrativo de cada criança, onde, por um lado, são assinalados os pontos fortes e aqueles que têm de ser melhorados e, por outro, a influência do ambiente é reconhecida na produção desse perfil, estimulando os pontos fortes e desenvolvendo aqueles que necessitam auxílio. Desta forma, os comportamentos apresentados não são percebidos como um produto finalizado da inteligência. Um estudo desta natureza pode se constituir um pilar importante na construção de políticas públicas e na busca de estratégias de atendimento que visem à prevenção, pois o oferecimento de informações e orientações adequadas aos pais e professores intervém no processo educacional destas crianças, impedindo o aparecimento de problemas que dificultem o seu desenvolvimento.
Resumo:
A permanente busca pela qualidade como diferencial nas instituições de ensino, bem como a necessidade de atender aos critérios estabelecidos pela legislação para a revalidação da autorização de funcionamento dos Centros Universitários no Brasil, foram os elementos que determinaram a abrangência desta pesquisa. Devido à complexidade e ao amplo espectro de itens que compõem o que podemos determinar como sendo qualidade, a pesquisa limitou-se a identificar os fatores pedagógicos e administrativos relevantes para a avaliação da qualidade no ensino. Para limitar o campo da pesquisa, esta foi feita utilizando o método de estudo de caso, que é uma estratégia de pesquisa que examina um fenômeno contemporâneo dentro do seu contexto real, e para tanto, foi pesquisado o curso de Bacharelado em Informática do Centro Universitário Positivo - UnicenP, em Curitiba. Dentre as metodologias que poderiam ser utilizadas, foi escolhida a metodologia denominada Soft System Methodology, ou simplesmente SSM. Esta metodologia, proposta por Peter Checkland em 1985 na Universidade de Lancaster no Reino Unido, é uma resposta às dificuldades de aplicação de metodologias que tendem a enfatizar que os objetivos dos sistemas são mensuráveis e que estes podem ser decompostos em sub-sistemas, através da técnica top-down, quando essas metodologias são aplicadas a problemas empresariais. A SSM permite a ordenação e a estruturação de situações problemáticas complexas e que se apresentam, aparentemente inconsistentes e com múltiplas visões pelos envolvidos no processo.
Resumo:
Numerosas pesquisas estão introduzindo o conceito de grupo em padrões abertos para programação distribuída. Nestas, o suporte a grupo de objetos por meio de middlewares, apresentam diferentes abordagens de interligação com a aplicação. Segundo princípios defendidos na tese de Felber, essas abordagens vão ao encontro do objetivo de facilitar o desenvolvimento e proporcionar confiabilidade e desempenho. Neste contexto, localizou-se três enfoques básicos para a interligação com a aplicação, denominados integração, serviço, e interceptação, que utilizam a captura de mensagens para obtenção de informações ou como meio para adicionar novas funcionalidades às aplicações. A utilização dessas informações pode auxiliar no ajuste de parâmetros funcionais de serviços relacionados, na escolha de mecanismos, influindo em aspectos como, desempenho e segurança. Ao longo do estudo dessas abordagens, sentiu-se a necessidade de estudar detalhes e testar aspectos de implementação, suas premissas de uso e as conseqüências advindas da incorporação de seus mecanismos junto à aplicação. Este trabalho visa apresentar uma análise do comportamento das referidas abordagens por meio da implementação de protótipos, possibilitando assim, investigar problemas relacionados ao emprego da técnica e suas conseqüências quando integradas à aplicação. Os objetivos específicos reúnem a busca de informações qualitativas, tais como: modularidade, transparência, facilidade de uso e portabilidade; e informações quantitativas, fundamentalmente traduzidas pelo grau de interferência no desempenho da aplicação. O desenvolvimento dos protótipos teve como início a busca por um ambiente que ofereceria suporte as condições necessárias para a implementação das diferentes abordagens. Percebeu-se que definir os mecanismos diretamente sobre uma linguagem de programação, como C ou C++, não era viável. As versões padrões dessas linguagens não oferecem mecanismos capazes de suportar algumas características de implementação como, por exemplo, a captura de mensagens na abordagem de interceptação. A possibilidade é introduzida apenas por extensões dessas linguagens. Assim, a investigação de um ambiente de implementação voltou-se para mecanismos disponíveis em sistemas operacionais. A opção pela utilização do Linux visou atender alguns requisitos importantes para o desenvolvimento dos protótipos tais como: facilidade de instalação, boa documentação e código aberto. Este último é um ponto essencial, pois a construção de parte dos protótipos explora a programação em nível do sistema operacional. A linguagem de programação C foi escolhida como base para a implementação, já que as diferentes abordagens exploram tanto o nível do kernel como o nível do usuário, e é compatível com o Linux. A etapa de desenvolvimento dos protótipos possibilitou a coleta de informações sobre aspectos qualitativos. As demais informações que fazem parte do perfil levantado por este trabalho sobre as abordagens, foram obtidas através da utilização dos protótipos em experimentos com duas aplicações distribuídas denominadas de “Ping-Pong” e “Escolha de Líderes”, que têm como característica geral à troca de mensagens, utilizando comunicação através de sockets. A realização de medidas em múltiplas execuções, avaliadas após o tratamento estatístico necessário, permitiu definir um perfil das diferentes abordagens.
Resumo:
Neste trabalho objetivou-se estudar como as diferenças no nível de conhecimento do decisor afetam a tomada de decisões, procurando aumentar o entendimento de diferentes resultados do processo decisório. Contemplou-se três grandes áreas: o processo decisório, a perspectiva cognitiva no processo decisório e a influência do nível de conhecimento sobre o objeto de decisão no processo de decisão. Utilizando uma tarefa decisória com múltiplas alternativas e múltiplos atributos realizou-se uma pesquisa do tipo experimental onde foram controladas as variáveis qualidade da informação, complexidade da tarefa decisória e tomadores de decisão especialistas e novatos. Após formuladas e testadas as hipóteses, chegou-se à conclusão de que decisores com menos conhecimento possuem menor autoconfiança excessiva e menor consistência no resultado da decisão do que decisores com mais conhecimento, sendo indiferente o consenso na comparação entre os mesmos. Quanto às estratégias decisórias, os decisores com menos conhecimento se utilizam mais de estratégias não compensatórias para chegar a escolha do que decisores com mais conhecimento. Tomadores de decisão com mais conhecimento cometem menor número de transgressões do método multicritério do que aqueles com menos conhecimento, porém há indicações de que os primeiros possuem mais motivos explícitos para as transgressões do que os últimos. Os dois grupos não diferem significativamente no tempo e número de passos para resolução das tarefas, mas durante o processo decisório para chegar a decisão final, os decisores com mais conhecimento são mais lineares do que aqueles com menos conhecimento, ou seja, se valem de menor número de passos e repetições para chegar à escolha final.
Resumo:
Esta dissertação é apresentada sob a forma de dois artigos. O primeiro foi realizado com o objetivo de comparar medidas verticais e horizontais de imagens adquiridas em estereomicroscópio (E) e scanner de mesa (S). Para isso, 50 dentes posteriores extraídos de humanos e seccionados no sentido mésio-distal foram utilizados. Cada hemi-secção foi fotografada no estereomicroscópio e digitalizada em scanner de mesa, com resolução de 230 dpi. No programa Photoshop foram realizadas medições horizontais (H) e verticais (V) de cada hemi-secção, nas imagens obtidas pelos dois métodos, com repetição aleatória de 20% dos casos da amostra. As medidas iniciais e repetidas apresentaram excelente correlação e o teste t para amostras pareadas não evidenciou diferenças significativas (p = 0,05) entre elas nos dois métodos. As médias das medidas e seus desvios-padrão foram: horizontais E 8,89 mm ? 4,30 mm, S 8,89 mm ? 4,52 mm e verticais E 4,42 mm ? 2,19 mm, S 4,43 mm ? 2,19 mm. O teste t para amostras pareadas com nível de significância de 5% demonstrou não haver diferenças significativas entre os dois métodos, tanto para as medidas horizontais (p=0,685) quanto para as verticais (p=0,299). Conclui-se que o scanner de mesa pode substituir o estereomicroscópio na aquisição de imagens de hemi-secções de dentes, com a finalidade de obtenção de medidas horizontais e verticais. O segundo artigo avaliou, in vitro, a profundidade de lesões de cárie proximal em dentes posteriores, comparando os exames clínico e radiográfico interproximal, com e sem a aplicação de cores, ao exame histológico. No total, 142 superfícies proximais foram avaliadas clinicamente e radiografadas. Para obtenção do padrão-ouro do estudo o exame histológico com cortes seriado foi realizado e as secções adquiridas, assim como as radiografias, digitalizadas com scanner de mesa A partir da criação de um programa digital, foi possível a aplicação de cores nas imagens radiográficas de maneira padronizada, de acordo com a intensidade de pixels de cada superfície. A profundidade das lesões foi aferida por meio de escores e de medidas nas imagens histológicas, radiográficas com e sem o uso de cor em cada superfície da amostra. O programa não foi capaz de identificar superfícies hígidas e lesões em diferentes profundidades no esmalte. Em todas as lesões que apresentavam alteração radiográfica em dentina, os escores atribuídos às imagens radiográficas com aplicação de cores foram 100% concordantes com os escores histológicos. Em relação às lesões que apresentavam histologicamente alteração na metade externa dentina, 55,56% tiveram sua profundidade subestimada, contudo nenhuma era cavidade em dentina. Todas as lesões que apresentavam profundidade histológica na metade interna de dentina apresentavam cavidade em dentina e mostraram a mesma extensão com a aplicação de cor na radiografia, superando os resultados obtidos com a radiografia sem cor. Em relação às medidas de profundidade, quando um desvio-padrão foi subtraído da média de densidade óptica para a aplicação de cores, as medidas resultantes foram ligeiramente menores e não diferiram significativamente daquela do exame histológico de acordo com a Análise de Variância, utilizando o delineamento de blocos casualizados, complementado pelo teste de Comparações Múltiplas de Tukey. O uso de um programa digital que determina de maneira padronizada como cada imagem deve ser colorida auxilia no diagnóstico de lesões de cárie que apresentam extensão histológica em dentina, especialmente aquelas que atinjam a sua porção interna.