880 resultados para Generación automática de resúmenes


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Diante dos problemas vivenciados no ensino da Física cabe ao professor a tarefa de tentar combater as dificuldades de seus alunos, proporcionando-lhes experiências de aprendizagem eficazes, procurando atualizar, tanto quanto possível, os instrumentos pedagógicos que utiliza. Considerando a especificidade experimental da Física, a realização de atividades de laboratório faz-se de grande importância. Porém, uma reflexão a respeito de como utilizar tais atividades é necessária para que possam realmente contribuir para uma aprendizagem significativa. Nesta busca, a utilização da aquisição automática de dados através de dispositivos do tipo CBL (do inglês Calculator Based Laboratory) pode, sem dúvida, trazer grande contribuição. Aliando-se à grande potencialidade do uso destes dispositivos, à inexistência de trabalhos divulgados envolvendo seu uso no ensino de Física no Brasil e, finalmente, ao fato deste ser um equipamento adquirido recentemente pelo Centro Federal de Educação Tecnológica de Pelotas, instituição na qual este trabalho foi desenvolvido, optou-se por propor nesta dissertação a utilização de tais equipamentos em laboratório didático de Física Térmica no ensino médio. Dentre os assuntos abordados cita-se: calor, temperatura e energia interna; resfriamento de um corpo; mudança de estado físico e pressão de vapor; transmissão do calor. Alguns destes assuntos não são normalmente abordados no ensino médio, como a lei de resfriamento e análise da curva de pressão de vapor. Outros tópicos levam a uma maior contextualização da Física, como umidade relativa do ar e formação de geada. Esta proposta é fundamentada pela teoria da aprendizagem significativa de David Ausubel e pela teoria da interação social de Lev Vigotski Através desta experiência de implementação em aulas regulares de ensino médio, espera-se verificar a possibilidade de sua utilização neste nível de ensino. Como produto deste trabalho de dissertação, foi produzido material instrucional que compreende guias experimentais e textos envolvendo os conteúdos abordados, assim como material hipermídia sobre transmissão do calor contendo algumas animações e teste interativo desenvolvidos em Flash MX. Todo este material foi concebido e implementado buscando levar o aluno a uma aprendizagem significativa dos conceitos físicos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Esta dissertação enquadra-se em um processo de busca de soluções para a geração do leiaute de circuitos integrados que permitam aumentar a qualidade da previsibilidade do comportamento de um circuito após a sua implementação. Isso é importante face ao crescimento dos problemas referentes aos efeitos elétricos adversos que surgem em nanocircuitos, tais como eletromigração, efeito antena, contatos mal formados e outros, assim como o aumento da variabilidade do processo de fabricação em tecnologias submicrônicas. O foco deste trabalho de pesquisa é a busca de soluções regulares através do uso de matrizes de portas lógicas. A experimentação efetuada realiza a geração de uma matriz de portas NAND que viabiliza a implementação de equações lógicas mapeadas para redes de portas NAND e inversores, admitindo-se a parametrização do fanout máximo. Foi desenvolvida uma ferramenta de CAD, o MARTELO, que permite efetuar a geração automática de matrizes de portas lógicas, sendo que a versão inicial está voltada para a geração de matrizes com portas NAND em tecnologia CMOS. Os experimentos efetuados revelam que esta técnica é promissora, sendo apresentados alguns dos resultados obtidos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho tem como objetivo estudar e avaliar técnicas para a aceleração de algoritmos de análise de timing funcional (FTA - Functional Timing Analysis) baseados em geração automática de testes (ATPG – Automatic Test Generation). Para tanto, são abordados três algoritmos conhecidos : algoritmo-D, o PODEM e o FAN. Após a análise dos algoritmos e o estudo de algumas técnicas de aceleração, é proposto o algoritmo DETA (Delay Enumeration-Based Timing Analysis) que determina o atraso crítico de circuitos que contêm portas complexas. O DETA está definido como um algoritmo baseado em ATPG com sensibilização concorrente de caminhos. Na implementação do algoritmo, foi possível validar o modelo de computação de atrasos para circuitos que contêm portas complexas utilizando a abordagem de macro-expansão implícita. Além disso, alguns resultados parciais demonstram que, para alguns circuitos, o DETA apresenta uma pequena dependência do número de entradas quando comparado com a dependência no procedimento de simulação. Desta forma, é possível evitar uma pesquisa extensa antes de se encontrar o teste e assim, obter sucesso na aplicação de métodos para aceleração do algoritmo.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este trabalho objetivou identificar as principais tecnologias disponíveis de TI (Tecnologia da Informação) e de AIDC (Identificação e Captura Automática de Dados) para a área de varejo de autosserviço, para preencher a lacuna existente na literatura, sobre os benefícios de se usar novas tecnologias no ponto de venda, com vistas a otimizar sua operação. Para tanto, foram estudados os principais processos operacionais de uma loja de varejo de autosserviço, com vistas a identificar como as Tecnologias da Informação (TI) e de Identificação e Captura Automática de Dados (AIDC), poderiam ajudar a melhorar os resultados operacionais e agregar valor ao negócio. Para analisar suas proposições (de que o uso de TI e de AIDC podem ajudar na: redução dos tempos dos processos de retaguarda; redução do número de operações no ponto de venda; prevenção de perdas; redução dos custos e dos tempos para a realização dos inventários; redução do número de funcionários nas lojas; redução do tempo de fila no caixa; redução de rupturas e no aumento da eficiência operacional da loja), foram pesquisados diversos estudos de casos mundiais de empresas do segmento de varejo, que implementaram as tecnologias de AIDC e TI, principalmente a de RFID, para saber quais foram os impactos do uso destas tecnologias em suas operações e, em seguida, foi desenvolvido um Estudo de Caso abrangente, por meio do qual se objetivou entender os benefícios empresariais reais do uso destas tecnologias para o varejo de autosserviço. Como resultado final, foi possível identificar as mudanças nos processos operacionais do varejo de autosserviço, bem como os benefícios gerados em termos de custo, produtividade, qualidade, flexibilidade e inovação. O trabalho também evidenciou os pontos críticos de sucesso para a implementação da TI e das AIDC no varejo, que são: a revisão dos processos operacionais; a correta definição do hardware; dos insumos; do software; das interferências do ambiente físico; da disponibilização dos dados/informações dos produtos; das pessoas/funcionários e dos parceiros de negócios/fornecedores. De maneira mais específica, este trabalho buscou contribuir para o enriquecimento do campo de estudos no segmento de varejo e para o uso da tecnologia da informação, no Brasil, já que o assunto sobre o uso e o impacto de novas tecnologias no ponto de vendas, ainda permanece pouco explorado academicamente.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho relata um estudo sobre a aplicação de duas metodologias diferentes do processo ensino-aprendizagem da disciplina Estatística no curso de Formação de Psicologia da Faculdade de Humanidades Pedro II. O estudo empírico realizou-se no primeiro semestre letivo de 1984. Utilizou-se um plano de pesquisa quase-experimental, com o modelo pré-teste/pós-teste. Formaram-se dois grupos intactos. O primeiro grupo constava de 64 sujeitos e o segundo de 66 sujeitos. Foram aplicadas, respectivamente, a metodologia Renovadora, que tinha por objetivo a aprendizagem através da compreensão e da aplicabilidade de conceitos e princípios estatísticos, e a metodologia Tradicional que implicava na aprendizagem por memorização dos princípios e automatização na execução dos cálculos. Os resultados do tratamento estatístico, considerando-se o nível de significância de 0,05, evidenciou não haver diferença estatisticamente significativa entre as duas metodologias de ensino da disciplina Estatística, tanto no que se refere à atitude quanto no que se refere ao aproveitamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação investiga a utilização de medidas como a adesão automática pela regulação da previdência complementar fechada a partir da flexibilização do conceito de racionalidade, tendo como base a Análise Econômica e Comportamental do Direito. Inicia-se o trabalho pela evolução histórica da regulação da previdência no Brasil, avaliando os impactos sistêmicos das alterações ocorridas no primeiro pilar previdenciário (regimes básicos). Em virtude dessas alterações e do crescimento da relevância do segundo pilar de previdência social (Previdência Complementar Fechada) para a manutenção do bem-estar, analisa-se a possibilidade de ocorrência de vieses cognitivos que implicam desvios de racionalidade dos indivíduos nas decisões relativas à previdência complementar. Esses vieses cognitivos podem fazer com que indivíduos escolham alternativas que não maximizam seu bem-estar, por razões como inércia, procrastinação e superotimismo, ao contrário do que aponta o pressuposto de racionalidade da Economia Neoclássica. Os resultados analisados conduzem à necessidade de adoção de medidas regulatórias capazes de mitigar esses desvios de racionalidade, na forma de adoção de arquitetura de escolhas que induzam à maximização do bem-estar individual, sem limitar a liberdade individual dos envolvidos. Essas medidas, entretanto, especialmente a adesão automática aos planos de benefícios, destinam-se à mitigação de vieses cognitivos, sendo criticável sua adoção em planos de previdência onde observa-se predominância de outras razões para baixos níveis de adesão, como desconfiança em relação à gestão do plano. Ademais, faz-se necessário respeitar certos critérios para sua implementação, a fim de garantir que esse instrumento somente seja utilizado quando se observar vieses cognitivos que prejudiquem significativamente o bem-estar, bem como que a opção à qual os indivíduos estão sendo induzidos é vantajosa, ao menos na grande maioria das vezes. Ao final, verifica-se a juridicidade dessas medidas, à luz da proporcionalidade, norma que permite identificar os limites para a intensidade regulatória.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os modelos e as técnicas de modelação são, hoje em dia, fundamentais na engenharia de software, devido à complexidade e sofisticação dos sistemas de informação actuais.A linguagem Unified Modeling Language (UML) [OMG, 2005a] [OMG, 2005b] tornou-se uma norma para modelação, na engenharia de software e em outras áreas e domínios, mas é reconhecida a sua falta de suporte para a modelação da interactividade e da interface com o utilizador [Nunes and Falcão e Cunha, 2000].Neste trabalho, é explorada a ligação entre as áreas de engenharia de software e de interacção humano-computador, tendo, para isso, sido escolhido o processo de desenvolvimento Wisdom [Nunes and Falcão e Cunha, 2000] [Nunes, 2001]. O método Wisdom é conduzido por casos de utilização essenciais e pelo princípio da prototipificação evolutiva, focando-se no desenho das interfaces com o utilizador através da estrutura da apresentação, com a notação Protótipos Abstractos Canónicos (PAC) [Constantine and Lockwood, 1999] [Constantine, 2003], e do comportamento da interacção com a notação ConcurTaskTrees (CTT) [Paternò, 1999] [Mori, Paternò, et al., 2004] em UML.É proposto, também, neste trabalho um novo passo no processo Wisdom, sendo definido um modelo específico, construído segundo os requisitos da recomendação Model Driven Architecture (MDA) [Soley and OMG, 2000] [OMG, 2003] elaborada pela organização Object Managent Group (OMG). Este modelo específico será o intermediário entre o modelo de desenho e a implementação da interface final com o utilizador. Esta proposta alinha o método Wisdom com a recomendação MDA, tornando possível que sejam gerados, de forma automática, protótipos funcionais de interfaces com o utilizador a partir dos modelos conceptuais de análise e desenho.Foi utilizada a ferramenta de modelação e de metamodelação MetaSketch [Nóbrega, Nunes, et al., 2006] para a definição e manipulação dos modelos e elementos propostos. Foram criadas as aplicações Model2Model e Model2Code para suportar as transformações entre modelos e a geração de código a partir destes. Para a plataforma de implementação foi escolhida a framework Hydra, desenvolvida na linguagem PHP [PHP, 2006], que foi adaptada com alguns conceitos de modo a suportar a abordagem defendida neste trabalho.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As aluviões, também denominadas por fluxos de detritos ou enxurradas, são movimentos de vertente rápidos, que ocorrem por ação da água e são consideradas um dos fenómenos mais perigosos em regiões montanhosas, causando prejuízos por onde passam. Como forma de prevenção, mas também como forma de estudo das condições inerentes à formação destes fenómenos e do respetivo comportamento ao longo do seu percurso, deve ser atribuído um papel importante à monitorização automática dos cursos de água. Na Ilha da Madeira, a aluvião mais recente aconteceu a 20 de fevereiro de 2010, afetando os concelhos da vertente Sul, particularmente os do Funchal e Ribeira Brava. Este evento surgiu devido a uma situação meteorológica adversa, com precipitações de elevada intensidade, resultando no transporte de um elevado volume de material sólido que levou ao transbordamento das ribeiras, obstruindo completamente a baixa funchalense e outros locais. Portanto, esta dissertação surge como introdução à temática do estudo e monitorização dos fluxos de detritos na Ilha da Madeira, onde, inicialmente, foi realizada uma primeira abordagem ao fenómeno, referindo as suas causas e características, tendo sido, também, mencionadas algumas das aluviões que assolaram a ilha. Posteriormente, foram descritos alguns dos equipamentos incluídos num sistema de monitorização, com as respetivas vantagens e desvantagens, bem como a descrição de alguns sistemas existentes. Como objetivo deste trabalho, foi idealizada uma solução de monitorização automática para a bacia hidrográfica da Ribeira de Machico, tendo sido analisadas as propriedades morfológicas da bacia, seguindo-se uma descrição dos sensores utilizados e a sua localização. Por fim, como caso de estudo, foi apresentado o sistema de monitorização a ser implementado pelo LREC (Laboratório Regional de Engenharia Civil), onde foram definidos os aparelhos utilizados, bem como a respetiva localização.