122 resultados para Impressoras (Processamento de dados)
Resumo:
A presente dissertação está dividida em 6 (seis) capítulos, um dos quais é esta própria introdução, com a qual se pretendeu, além de mostrar a importância do problema que será analisado, também realçar o seu papel no panorama de Processamento de Dados brasileiro de hoje. O capítulo seguinte apresenta o trabalho alvo deste estudo, ou seja, programação de computadores, situando-o em relação ao todo da função de processamento de dados na em presa e caracterizando-se também os aspectos organizacionais dessa função além de realçar-se os aspectos básicos do ciclo de vida dos sistemas automatizados. Em seguida, no terceiro capítulo, são enumerados e analisados os vários fatores que atuam sobre a tarefa de programação de computadores os quais encontram-se separados em três categorias; Fatores ambientais, Variáveis Inerentes a Cada Programa e Experiência do Programador. No quarto capítulo são consideradas vá- rias técnicas de Medida do Trabalho, examinando-se cada uma sob a ótica de uma possível aplicação com programadores de computador. A metodologia proposta para se estabelecer padrões de tempo e produtividade para esses profissionais está apresentada no quinto capítulo. Resumidamente ela consiste em se escolher e observar um grupo de programas de computador, quantificando simultaneamente suas variáveis peculiares conforme conceituadas no terceiro capítulo e o esforço dispendido em cada um. Através do uso da análise de regressão múltipla são então obtidas as equações que darão os tempos normais necessários para se produzir cada tipo de programa em função das variáveis relevantes em cada tipo. Finalmente no último capítulo são mostrados os principais benefícios obtidos com a aplicação da metodologia sugerindo-se possibilidades para se expandir o estudo
Resumo:
A área que enfocamos é a de processamento de dados. o que nos interessará neste trabalho é o controle na forma de uma redundância que acompanha o código. Abrange os CÓDIGOS DETETORES DE ERROS, sendo já bastante difundida na forma de DÍGITOS VERIFICADORES OU DE CONTROLE, para códigos numéricos decimais.
Resumo:
A coleta e o armazenamento de dados em larga escala, combinados à capacidade de processamento de dados que não necessariamente tenham relação entre si de forma a gerar novos dados e informações, é uma tecnologia amplamente usada na atualidade, conhecida de forma geral como Big Data. Ao mesmo tempo em que possibilita a criação de novos produtos e serviços inovadores, os quais atendem a demandas e solucionam problemas de diversos setores da sociedade, o Big Data levanta uma série de questionamentos relacionados aos direitos à privacidade e à proteção dos dados pessoais. Esse artigo visa proporcionar um debate sobre o alcance da atual proteção jurídica aos direitos à privacidade e aos dados pessoais nesse contexto, e consequentemente fomentar novos estudos sobre a compatibilização dos mesmos com a liberdade de inovação. Para tanto, abordará, em um primeiro momento, pontos positivos e negativos do Big Data, identificando como o mesmo afeta a sociedade e a economia de forma ampla, incluindo, mas não se limitando, a questões de consumo, saúde, organização social, administração governamental, etc. Em seguida, serão identificados os efeitos dessa tecnologia sobre os direitos à privacidade e à proteção dos dados pessoais, tendo em vista que o Big Data gera grandes mudanças no que diz respeito ao armazenamento e tratamento de dados. Por fim, será feito um mapeamento do atual quadro regulatório brasileiro de proteção a tais direitos, observando se o mesmo realmente responde aos desafios atuais de compatibilização entre inovação e privacidade.
Resumo:
Em agosto de 2012, o economista-chefe do Centro de Políticas Sociais da Fundação Getulio Vargas (FGV), Marcelo Neri, foi nomeado presidente do Instituto de Pesquisa Econômica Aplicada (Ipea). Em março do mesmo ano, ainda pela FGV, Neri lançara o livro A Nova Classe Média: o lado brilhante da base da pirâmide, que retoma a série de estudos sobre a nova classe média que vinha realizando pela Fundação desde 2008. O presente trabalho analisa mudanças no enquadramento das notícias do jornal O Globo relativas à nova classe média nos períodos em que Marcelo Neri atuou na FGV e, posteriormente, no governo federal, por meio de uma Análise de Enquadramento Textualmente Orientada – método crítico de análise dos enquadramentos da mídia cujo intuito é auxiliar na percepção e mensuração de mudanças nos vieses noticiosos em função de variáveis políticas. Tal metodologia alia a análise linguística de grandes volumes de texto à teoria social do discurso, e foi desenvolvida em parceria com a Escola de Matemática Aplicada (EMAp/FGV), tendo como base ferramentas computacionais de Linguística de Corpus e Processamento de Linguagem Natural (PLN).
Resumo:
Este trabalho é um estudo sobre a aplicação de técnicas de visualização de informação em sistemas de software científico, i.e., sistemas de software voltados para matemática, ciências e engenharias. Enquanto sistemas dessa natureza normalmente fazem uso da visualização científica e figuram como caso de sucesso nessa área, nem sempre são projetados considerando os princípios de visualização de informação. Esse trabalho tem por objetivo avaliar a aplicação desse conceitos em alguns sistemas reais, desenvolvidos com diferentes níveis de entendimento nessa área de conhecimento e com base nessas experiências propor o desenvolvimento de componentes de software capazes de facilitar a criação de sistemas semelhantes e ao mesmo tempo promover a aplicação destes conceitos.
Resumo:
Esta dissertação tem como objetivo explorar como o governo do Estado de São Paulo pode utilizar a tecnologia para aproximar o Estado dos cidadãos por meio de aplicativos móveis. A intensificação do uso dos dispositivos móveis pela população brasileira e a recente ampliação do uso de m-government como esforço na busca da melhoria da prestação de serviços ao cidadão pelo Estado de São Paulo nas duas últimas décadas configuram o cenário em que foi estabelecido o Termo de Referência da Subsecretaria de Tecnologia e Serviços ao Cidadão, da Secretaria de Governo do Estado de São Paulo. Neste trabalho, houve a integração de métodos de pesquisa de diferentes naturezas: revisão da literatura, entrevistas semi-estruturadas com atores influentes na formulação das políticas públicas, avaliação da política de aplicativos móveis do Governo do Estado de São Paulo e dos próprios aplicativos, benchmarking de experiências internacionais e diagnóstico analítico da situação atual. Foram identificados como pontos fortes a importância da existência de uma subsecretaria próxima ao Governador, a criação de um aplicativo central que facilita o conhecimento dos aplicativos do governo existentes e a existência de uma empresa pública de processamento de dados com competência para desenvolver serviços e aplicativos. Como desafios foram identificados a estratégia de comunicação e divulgação dos aplicativos, ausência de legislação sobre m-government e a falta de uma política pública e planejamento estratégico consistente para orientar melhorias e alcance de resultados com rapidez e eficiência. Recomenda-se, principalmente: 1) que a Subsecretaria de Tecnologia e Serviços ao Cidadão atue como órgão central para além de emitir as diretrizes de e-goverment, também emanar as de m-government, 2) que o foco governamental seja na orientação do serviço ao cidadão e não primordialmente ao desenvolvimento de aplicativos e 3) a formulação e implementação de uma política clara para a difusão de m-government que seja passível de ser entendida e replicada por todos os atores governamentais e permeie todos os órgãos da administração direta e indireta, não se restringindo às áreas de TI. A abordagem de m-government ainda é incipiente no Brasil, necessitando de novos estudos acadêmicos complementares para consolidação de massa crítica sobre o tema. Este assunto receberá atenção e investimentos governamentais nos próximos anos. Conclui-se que o Estado de São Paulo está em uma boa direção, mas para avançar com efetividade os gestores estaduais devem se apropriar das melhores práticas da experiência internacional em m-government, havendo um longo caminho para melhorar o relacionamento entre o Estado e os cidadãos com o uso de aplicativos móveis, com a abordagem de um governo único para um cidadão único.
Resumo:
Trabalho apresentado no III Simpósio Internacional LAVITS: Vigilância, Tecnopolíticas, Territórios 13 à 15 de Maio, 2015. Rio de Janeiro, Brasil
Resumo:
Este trabalho estima modelo CCAPM (consumption capital asset pricing model) para três classes de funções utilidade com dados brasileiros, gerando estimativas robustas de aversão ao risco elasticidade substitu ição intertemporal. Os resultados são analisados comparados resulta dos anteriores para dados brasileiros americanos.
Resumo:
O objetivo desse trabalho é estudar diferentes aspectos que envolvem o mecanismo de repasse cambial no Brasil, para o período de flutuação do real. Os resultados obtidos mostram que a apreciação do real possibilitou a desinflação verificada a partir de 2003, refutando estudos anteriores que identificam assimetrias nos efeitos do pass-through. Estimativas de equações de Phillips para diferentes grupos de preços indicam que os bens comercializáveis apresentam maior sensibilidade não apenas ao repasse cambial, mas também aos demais canais de transmissão da política monetária. No sentido inverso, o elevado peso do coeficiente backward-looking nas equações para os bens não-comercializáveis reforça evidências anteriores acerca de grande rigidez na dinâmica temporal daquele grupo. Verificou-se ainda uma elevada inércia na dinâmica dos bens administrados, caracterizando aquele grupo como uma importante fonte de propagação sobre a inflação futura de choques cambais. As estimativas também mostraram que variações nos preços das commodities produzem importantes repasses sobre a inflação, uma vez que seu coeficiente é semelhante ao da variação cambial. Através de uma abordagem VEC, conclui-se que a taxa real de câmbio atua no sentido de alterar os preços relativos entre os bens comercializáveis e não-comercializáveis, e que o preço real das commodities possui um papel central nesse processo, produzindo variações tanto no câmbio real como nos preços relativos domésticos. Por fim, funções resposta a impulso, calculadas a partir de modelos VAR, confirmam que os choques na taxa cambial são transmitidos sobre os preços com defasagens, atingindo o valor máximo três trimestres após a ocorrência do choque.
Resumo:
None
Resumo:
Em 2000, o governo federal fixou uma lei que permitiu os estados fixarem pisos salariais acima do salário mínimo. Os estados do Rio de Janeiro e Rio Grande do Sul adotaram tal lei. Assim, utilizamos dados de painel da Pesquisa Mensal de Emprego de 2000 e 2001, e os resultados apontam para baixa efetividade da lei nestes estados. Adicionalmente, encontramos evidências de efeito nulo sobre o nível de emprego, na direção contrária ao modelo convencional dos livros texto, dado o grande aumento salarial que a lei proporcionaria.. Assim, as evidências encontradas apontam para um alto descumprimento da legislação.