997 resultados para Dados bibliograficos legiveis por computador


Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal desta investigação é evidenciar uma possibilidade metodológica, de caráter didático-pedagógico, tendo por base a Epistemologia Genética, que possa atender às necessidades de inclusão digital de comunidades educacionais rurais. A pesquisa foi feita presencialmente e virtualmente, através do curso de extensão Oficinas Virtuais de Aprendizagem, para o qual foi usado o ROODA  Rede Cooperativa de Aprendizagem  como ambiente virtual de apoio. Fizeram parte da pesquisa, alunos e professores de duas escolas rurais de Ensino Fundamental do município de Candelária - RS. A coleta de dados foi feita através de questionário, conversa informal, ficha de observação, bem como foram considerados, para análise, os registros e interações feitos no ambiente virtual e o produto das atividades desenvolvidas durante o curso. Desta intervenção, é possível concluir que a metodologia didático-pedagógica Oficinas Virtuais de Aprendizagem permite promover a inclusão digital docente e discente. Este processo ocorre paralelo à gênese de um novo modelo de escola, cujo tempo e o espaço pedagógico estejam de acordo com as possibilidades da tecnologia digital. A concepção teórica deste modelo está focada na perspectiva de quem aprende.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A desoneração da folha é constituída pela eliminação da contribuição previdenciária patronal incidente sobre a folha de pagamento dos funcionários e pela adoção de uma nova contribuição previdenciária sobre a receita bruta das empresas. Um dos objetivos desta mudança, listados pelo Governo Federal do Brasil no programa Brasil Maior, é reduzir os custos de produção dos setores beneficiados através da diminuição da carga tributária, contribuindo, assim, para a geração de empregos e formalização de mão de obra. O objetivo deste trabalho, portanto, é estimar o impacto desta medida sobre a geração de empregos formais e também sobre o salário médio dos trabalhadores nos primeiros setores beneficiados, que foram, principalmente, Tecnologia da Informação (e Comunicação), Couro e Calçados, Vestuário e Têxtil, Hotéis e Call Center. Para isto, aplicou-se a metodologia econométrica difference-in-differences nos dados da Relação Anual de Informações Sociais (RAIS), disponibilizados pelo Ministério do Trabalho. Os resultados sugerem principalmente que a desoneração da folha de pagamentos parece ter gerado empregos apenas para o setor Tecnologia da Informação (e Comunicação), assim como aumento do salário médio dos empregados deste setor. Outro resultado interessante é que para o setor de Call Center o impacto em termos de emprego não foi significativo, mas a lei parece ter contribuído para um aumento do salário no setor.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A presente dissertação está dividida em 6 (seis) capítulos, um dos quais é esta própria introdução, com a qual se pretendeu, além de mostrar a importância do problema que será analisado, também realçar o seu papel no panorama de Processamento de Dados brasileiro de hoje. O capítulo seguinte apresenta o trabalho alvo deste estudo, ou seja, programação de computadores, situando-o em relação ao todo da função de processamento de dados na em presa e caracterizando-se também os aspectos organizacionais dessa função além de realçar-se os aspectos básicos do ciclo de vida dos sistemas automatizados. Em seguida, no terceiro capítulo, são enumerados e analisados os vários fatores que atuam sobre a tarefa de programação de computadores os quais encontram-se separados em três categorias; Fatores ambientais, Variáveis Inerentes a Cada Programa e Experiência do Programador. No quarto capítulo são consideradas vá- rias técnicas de Medida do Trabalho, examinando-se cada uma sob a ótica de uma possível aplicação com programadores de computador. A metodologia proposta para se estabelecer padrões de tempo e produtividade para esses profissionais está apresentada no quinto capítulo. Resumidamente ela consiste em se escolher e observar um grupo de programas de computador, quantificando simultaneamente suas variáveis peculiares conforme conceituadas no terceiro capítulo e o esforço dispendido em cada um. Através do uso da análise de regressão múltipla são então obtidas as equações que darão os tempos normais necessários para se produzir cada tipo de programa em função das variáveis relevantes em cada tipo. Finalmente no último capítulo são mostrados os principais benefícios obtidos com a aplicação da metodologia sugerindo-se possibilidades para se expandir o estudo

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A análise tectono-estratigráfica da Bacia do Camaquã, uma sequência vulcanosedimentar do Neoproterozóico ao Eoproterozóico com depósitos de Cu (Au, Ag), Zn e Pb, é aqui apresentada com a utilização de ferramentas de sensoriamento remoto, gravimetria e perfilagem de poço. Nas imagens LANDSAT TM demarcou-se as concentrações de lineamentos junto as principais estruturas regionais e delimitou-se quatro domínios estruturais de acordo com a orientação dos trends dos lineamentos estruturais. Os perfis de poços que abrangem as formações Guaritas e Bom Jardim evidenciam eventos tectônicos com deformação rúptil e dúctil-ruptil, estabelecendo-se diferentes fácies tectonoestratigráficas de seqüências deposicionais (ambiente deltáico) e sequência deformacionais. Nos poços observa-se a variação da densidade com a profundidade entre poços, indicando a presença de duas aloformações de compactação distintas. Com base nos dados gravimétricos locais e regionais pode-se delimitar anomalias gravimétricas do embasamento, pacotes sedimentares de espessuras distintas em subsuperfície, com espessamento para NE, como também valores diferenciados para as principais unidades sedimentares da região estudada, bem como uma compartimentação escalonada da bacia do Camaquã. Ferramentas computacionais complementam a análise gravimétrica e de perfilagem geofísica, possibilitando a integração das técnicas já relacionadas e a formatação de dois perfis esquemáticos EW e SW-NE da bacia. Estes perfis auxiliam na visualização dos limites estruturais e formato da bacia, trazendo importantes informações para o modelo geológico da Bacia do Camaquã.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Em 2000, o governo federal aprovou uma lei que permitiu aos Estados fixarem pisos salariais acima do salário mínimo. Os Estados do Rio de Janeiro e Rio Grande do Sul adotaram tal lei em 2001. Utilizando dados de painel da Pesquisa Mensal de Emprego de 2000 e 2001, encontramos um baixo cumprimento da lei nestes Estados. Adicionalmente, obtivemos evidências de efeito nulo sobre o nível de emprego. Estes resultados indicam um alto descumprimento da legislação devido a uma baixa efetividade da lei, como sugerido pela teoria.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este artigo usa dados agregados brasileiros para estimar a demanda domiciliar por telefones fixos. Com relação à literatura prévia sobre o tema, podem ser ressaltados três avanços metodológicos: (i) o caráter não-linear da escolha individual é preservado no modelo agregado; (ii) a agregação é feita de modo a considerar o viés gerado pela heterogeneidade entre os indivíduos dentro das regiões; (iii) é usada uma matriz de covariância robusta à presença de dependência espacial [Driscoll & Kraay (1998)]. Percebe-se que a consideração do viés de agregação altera significativamente os resultados. Além disso, simulações construídas a partir das estimativas encontradas indicam que a redução da assinatura básica em 50% aumentaria em apenas 3,3% os domicílios brasileiros com telefone fixo. Este impacto modesto é provavelmente resultado do comportamento dos domicílios de baixa renda. Em grande parte destes domicílios, existe somente um tipo de telefone, móvel ou fixo. Nesse caso, mesmo com uma redução significativa da assinatura do telefone fixo, boa parte deles ainda deve optar pelo telefone móvel, na medida em que este último, além de garantir mobilidade, tende a comprometer uma parcela menor da renda mensal.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

A informatização da Justiça brasileira é um processo em andamento cujo início remonta à década de 1970. Seu último estágio de desenvolvimento, o processo eletrônico, está sendo implantado desde o início do milênio, sem que haja um prazo previsto para sua conclusão. Em 2009, o Conselho Nacional de Justiça estabeleceu que todos novos processos a partir de 2014 seriam em meio eletrônico. Porém, esta meta está longe de ser alcançada, conforme comprovam os dados do Relatório Justiça em Números. O objetivo deste trabalho foi entender a contribuição do sistema Projudi para o processo de informatização do Poder Judiciário brasileiro. Para isso foram investigadas as trajetórias do sistema sob a ótica da Teoria Ator-Rede e os movimentos que propiciaram as trajetórias encontradas. As trajetórias do Projudi foram divididas em três grandes etapas: de Campina Grande a João Pessoa, de João Pessoa a Brasília e de Brasília para o Brasil. Cada uma das duas primeiras etapas foi dividida em três fases. Já a terceira etapa foi contada a partir de três casos de implantação do Projudi em tribunais estaduais: Roraima, Minas Gerais e Bahia. Essas trajetórias foram analisadas sob a ótica da Teoria Ator-Rede, com o auxílio de gráficos temporais, de rede e de coesão. A conclusão apresenta pontos importantes das trajetórias estudas e recomendações que podem ser seguidas no processo de informatização do Poder Judiciário brasileiro.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os jogos eletrônicos são o tema desta investigação. A série de jogos para computador Tomb Raider, o objeto principal. Para desenvolver uma analítica em torno dos games, esta tese foi elaborada com base em duas problematizações: como nos tornamos sujeitos-jogadores em um campo estratégico chamado de jogos eletrônicos? Que efeitos tal campo tem sobre nós? Ambas foram construídas com base em teorizações foucautianas sobre a noção de governo. Elas funcionaram, dentre outras coisas, para compor os jogos eletrônicos como um campo estratégico de subjetivação articulado em torno de quatro grandes mecanismos de governo: a comunidade de jogadores, o currículo da série de jogos Tomb Raider, as histórias e narrativas e as personagens. Primeiramente, a composição da comunidade de jogadores tem base na organização de algumas técnicas de poder: a linguagem em comum entre os envolvidos; as técnicas de captura do consumidor; as técnicas de marketing, dentre outras. Em segundo lugar, por meio das histórias e das narrativas, os sujeitos-jogadores aprendem quem é a sua personagem, os motivos que a levaram a combater o mal, quem são seus amigos e inimigos, quais objetivos deverão ser cumpridos para se chegar ao final do jogo. Mesmo assim, o campo formado pelas técnicas de governo dos sujeitos-jogadores não se resume na organização de uma comunidade, da história e da criação de narrativas. Os games, como um campo estratégico de governo, relacionam-se, também, com a construção de suas personagens. Para a maior eficiência “pedagógica” dessa relação jogo-jogador, leva-se em conta, no desenvolvimento das histórias e na elaboração das personagens, aqueles a quem se quer capturar. Categorias como idade, sexo, comunidade da qual participam são de vital importância na elaboração dos jogos. Baseado nessas categorias, estão presentes nos games percepções do que é ou deveria ser um sujeitojogador. Os seres humanos, porém, como objetos do poder-saber, vão se constituindo como sujeitos de diversas maneiras. Não podemos falar em essência do sujeito. As relações de poder, dinâmicas e em constante movimento, vão sempre “fabricar novos sujeitos” e novas formas de subjetivação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O presente trabalho utiliza os dados disponibilizados pela BM&FBovespa para analisar as ações da Petrobrás para os meses compreendidos entre julho e agosto de 2010 e outubro de 2008. Primeiramente, apresentamos uma discussão detalhada sobre a manipulação desses dados, na qual explicitamos a impossibilidade de se usar o mid-price quote devido ao número elevado de ofertas de compra/venda com preços muito elevados/baixos. Verificamos alguns dos fatos estilizados empíricos apontados por Cont (2001), entre outros consagrados na literatura de microestrutura. Em geral, os dados replicaram os fatos estilizados. Aplicamos o filtro proposto por Brownlees e Gallo (2006) às ações da Petrobrás e analisamos a sensibilidade do número de possíveis outliers encontrados pelo filtro a variação dos parâmetros desse filtro. Propomos utilizar o critério de Akaike para ordenar e selecionar modelos de duração condicional cujas amostras de duração possuem tamanhos distintos. Os modelos selecionados, nem sempre são aqueles em que os dados foram filtrados. Para o ajuste ACD (1,1), quando considerados apenas os modelos bem ajustados (resíduos não autocorrelacionados), o critério de Akaike indica como melhor modelo aquele em que os dados não foram filtrados.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Estimar e prever a volatilidade de um ativo é uma tarefa muito importante em mercados financeiros. Nosso objetivo neste trabalho é propor o conceito de deformação temporal neste contexto. A idéia é que o mercado modifica-se com a chegada de novas informações, e não com o decorrer do tempo de calendário. Nós estimamos a volatilidade dos retornos do IBOVESPA, aplicando Modelos de Volatilidade Estocástica sem e com Deformação Temporal.

Relevância:

20.00% 20.00%

Publicador: