995 resultados para 1995_01210705 TM-39 4301707
Resumo:
As atividades de exploração e produção de petróleo e gás no Brasil têm se tornado mais intensas ao longo desta última década, apresentando uma tendência de avanço em direção a ambientes de maior profundidade, onde se localizam grande parte das reservas de óleo já comprovadas. Os processos de exploração e produção de petróleo e gás apresentam muitas etapas com considerável potencial gerador de impactos ao meio ambiente, entre elas, a perfuração de poços exploratórios marítimos, objeto do presente estudo. Este estudo originou-se do Projeto MAPEM – Monitoramento Ambiental em Atividades de Perfuração Exploratória Marítima (Águas Profundas), do qual foram utilizados os dados analisados nesta dissertação. O monitoramento foi realizado visando avaliar os efeitos da perfuração do poço Eagle, localizado em talude continental, região norte da Bacia de Campos, Brasil, próximo ao limite entre os estados do Rio de Janeiro e Espírito Santo, a 902 metros de profundidade. Foram coletadas amostras de sedimentos superficiais na região de entorno da atividade, em 48 estações de monitoramento e 6 estações de controle, durante os cruzeiros oceanográficos realizados um mês antes, um mês após e um ano após a perfuração. As análises dos sedimentos geraram informações sobre sua composição granulométrica, mineralógica (argilominerais e carbonato de cálcio) e química (hidrocarbonetos e metais), e foram comparadas em sua variação espacial (área de monitoramento/estações de controle) e temporal (3 cruzeiros oceanográficos). A variação temporal foi abordada de três maneiras distintas, onde o Cruzeiro I representou o background da área, a variação do Cruzeiro I para o II representou o impacto sobre a área de monitoramento e na variação do Cruzeiro II para o III, buscou-se evidências de recuperação da área monitorada com tendência de retorno às suas características iniciais O background da área definiu os níveis médios de todas variáveis analisadas, identificando, além de teores naturais para alguns dos componentes dos sedimentos, sinais de contaminação de origem antrópica, principalmente de As, Pb e hidrocarbonetos petrogênicos (n-alcanos) e pirogênicos (aromáticos). Na perfuração do poço Eagle foi utilizado fluido de base aquosa (FBA) e fluido de base sintética (FBS), dos quais se buscou identificar as áreas de influência e as alterações causadas nos sedimentos. Identificou-se a ocorrência de um fluxo gravitacional de massa, no período entre o Cruzeiro I e a perfuração, restrito ao cânion submarino que cruza a área de monitoramento, do qual também foi avaliada a influência sobre a composição dos sedimentos. A influência do FBA (indicada pelos teores de bário) estendeu-se por uma grande área, apresentando maiores concentrações nas estações próximas do poço. A área de influência do FBS (indicada pelos n-alcanos entre C14 e C22) apresentou distribuição mais restrita, em duas manchas, uma a norte e outra a oeste do poço. Além dos n-alcanos, foi identificado aumento dos teores de bário, UCM (mistura complexa não resolvida), fluoreno e acenaftaleno. O fluxo gravitacional de massa causou elevações na proporção de areia das estações do cânion submarino e redução do carbono orgânico. Efetivamente pode se concluir que a atividade de perfuração exerceu influência significativa nas propriedades químicas dos sedimentos, contudo, de improvável efeito tóxico sobre a biota. Pode-se concluir também que ocorreu recuperação da área, após o período de um ano, por redução das concentrações médias de algumas variáveis e sinais de reposição de n-alcanos naturais, porém não foi possível a identificação de degradação do material sintético utilizado no FBS.
Resumo:
O objetivo deste trabalho é a definição de um conjunto de roteiros para o ensino de arquitetura de computadores com enfoque em arquiteturas superescalares. O procedimento é baseado em simulação e verificação da influência dos parâmetros arquiteturais dos processadores, em termos funcionais e de desempenho. É dada ênfase a conceitos como memória cache, predição de desvio, execução fora de ordem, unidades funcionais e etc. Através do estudo e avaliação dos parâmetros que constituem estes conceitos, procurava-se através dos roteiros identificar as configurações com melhor desempenho. Para a implementação destes roteiros é dotado o conjunto de ferramentas de simulação SimpleScalar. Este conjunto, além de estar disponibilizado em código aberto na página oficial das ferramentas, traz como vantagem a possibilidade de alteração do código para fins de pesquisa. Este trabalho e os roteiros que o compõem têm como objetivos auxiliar professores e estimular os alunos através de simulações, como forma didática de testar conceitos vistos em sala de aula. Os roteiros são apresentados com os respectivos resultados de simulação e incrementados com comentários e sugestões de um conjunto de perguntas e respostas para que o trabalho possa ter continuidade necessária, partindo da sala de aula para a simulação, busca de respostas e culminando com um relatório final a ser avaliado.
Resumo:
Na busca por métricas de marketing que tenham ligação com os componentes atitudinais e comportamentais do cliente, é essencial aprofundar a compreensão sobre os antecedentes da lealdade do cliente – a chave para o crescimento organizacional. A satisfação é um antecedente reconhecido da lealdade, mas depender apenas de sua gestão para a retenção de clientes pode ser ineficaz, dada a falta de visão de mecanismos que levam a clientela a permanecer leal a um fornecedor mesmo quando insatisfeita. Estes mecanismos são os chamados custos de mudança. Assim, esta dissertação testa a influência destes dois constructos – satisfação e custos de mudança – como antecedentes da lealdade. Para tanto, foi conduzida uma pesquisa survey, tendo como campo de estudo a indústria de telefonia móvel celular. Como resultado, verificou-se que tanto a satisfação quanto os custos de mudança têm impacto positivo na lealdade. Ainda, confirmando estudos prévios, a magnitude do impacto dos custos de mudança na lealdade é maior que a da satisfação. Os resultados são discutidos, bem como as implicações acadêmicas e gerenciais obtidas. Ao longo das análises, são feitas sugestões para estudos futuros.
Resumo:
Diante do aumento da competição no mercado de edificações habitacionais, o paradigma de produção tradicional da construção apresenta limitações, pois resulta em um elevado índice de desperdícios, com altos custos de produção, baixa qualidade e atrasos na entrega dos produtos. A Produção Enxuta, como um paradigma de produção que busca eliminar os desperdícios para que os custos de produção diminuam, a qualidade dos produtos e a rapidez com que são entregues sejam melhores, apresenta-se com potencial de reduzir as ineficiências da construção. As idéias da Produção Enxuta têm sido introduzidas na construção desde 1993, originando a Construção Enxuta. Apesar de estudos demonstrarem bons resultados na introdução dessas idéias na construção, observa-se que tais esforços têm-se voltado mais para uma implementação isolada e pontual, limitando assim a possibilidade de melhorias ao longo do fluxo de valor. Na tentativa de reverter este quadro, o objetivo principal deste trabalho é visualizar o processo produtivo da construção de modo sistêmico, ou seja, do seu fluxo de valor. E assim, identificar os seus principais problemas e desperdícios e propor ações de melhoria, visando uma implementação sistêmica da Produção Enxuta. Para visualização do fluxo de valor utiliza-se a ferramenta chamada Mapeamento do Fluxo de Valor (MFV). Utilizado na manufatura como forma de iniciar a implementação da Produção Enxuta nas empresas, o MFV possibilita uma visualização sistêmica da produção, relacionando o processo produtivo com os clientes e fornecedores, a identificação dos desperdícios e a proposição de melhorias. Devido às diferenças entre construção e manufatura, foram necessárias adequações no MFV para sua aplicação na construção. O estudo foi realizado em uma construtora de edificações habitacionais de Porto Alegre/RS e em função do longo período de construção, a aplicação do MFV ocorreu somente na etapa da alvenaria. A partir da visualização sistêmica da alvenaria foi identificada uma série de problemas e desperdícios e propostas ações de melhorias, almejando a implementação da Produção Enxuta ao longo do fluxo de valor. Entre as melhorias que se mostraram possíveis tem-se a redução do lead time de produção, um processo produtivo mais fluído, a redução dos estoques, o melhor aproveitamento da mão-de-obra e a melhor interação com os diversos agentes que fazem parte da construção como, por exemplo, os clientes, os arquitetos e os fornecedores.
Resumo:
Empresas de base tecnológica (EBT) requerem a existência ou desenvolvimento de capacidades empresariais que determinarão a sustentabilidade do negócio. As incubadoras de empresas têm sido consideradas como um dos meios possíveis para que as EBTs atinjam um nível de desenvolvimento dessas capacidades que podem assegurar, após a incubação, sua permanência e progresso no mercado. Entretanto, é importante determinar se os objetivos para os quais as incubadoras foram criadas estão sendo atingidos e em que grau. O estudo apresenta pesquisa que buscou avaliar impacto do processo de incubação de empresas, medindo o desenvolvimento de capacidades em três dimensões: inovação, solidez financeira e capacidade gerencial. Estas dimensões, foram mensuradas em dezesseis EBTs do setor de informática do Estado do Rio Grande do Sul em dois grupos de empresas com características similares: o grupo de empresas pós-incubadas e o grupo de empresas não-incubadas. O método utilizado é o estudo de múltiplos casos em um desenho quase-experimental. Para a coleta de dados, o principal sócio de cada empresa respondeu a uma entrevista semi-estruturada e a um questionário fechado. A análise dos dados revelou que as empresas pós-incubadas demonstraram ser mais inovadoras e têm gestores melhor capacitados na área gerencial mas, no entanto, possuem menor solidez financeira. Por outro lado, as empresas não-incubadas são menos inovadoras e seus gestores têm menor capacitação gerencial, mas apresentam maior solidez financeira, indicada pela relação favorável entre receita e despesa e uma receita mensal regular. Os resultados deste estudo, com suas limitações de tamanho da amostra, evidenciam que o processo de incubação tem o impacto esperado no desenvolvimento de EBTs.
Resumo:
Por várias décadas os computadores têm sido utilizados no processo educacional e nem sempre da forma correta. E existe uma forma correta? Não existe consenso, são muitas as tentativas e experiências com inúmeros resultados positivos e negativos. Sabe-se de antemão que um dos fatores que levam ao fracasso alguns ensaios é a mera transposição do material didático tradicional para o meio informatizado, sem alterações na metodologia nem na postura do professor e do aluno. A questão é como a tecnologia pode ser utilizada para favorecer uma Aprendizagem Significativa. Para possibilitar esta pesquisa foi desenvolvido o Laboratório Virtual ASTERIX, utilizado na disciplina de Redes de Computadores do Curso de Ciências da Computação/UFSM. Esse trabalho apresenta os resultados da utilização do laboratório virtual ASTERIX, a metodologia de utilização dos recursos tecnológicos envolvidos (realidade virtual, inteligência artificial e animações/simulações) e avaliação da utilização desse laboratório virtual. A teoria educacional que fundamentou a criação e a utilização do laboratório virtual foi a Aprendizagem Significativa de D. Ausubel e D. Jonassen.
Resumo:
Atender os cidadãos de forma satisfatória tem sido uma das grandes dificuldades dos órgãos públicos e também um de seus principais desafios. A administração pública brasileira, baseada em um sistema burocrático, que, na sua maioria é falho e ineficiente, traz a luz do mundo globalizado, uma série de situações negativas para todo o aparato estatal. Existem inúmeros instrumentos de controle da gestão pública objetivando sua eficiência e eficácia, enquanto promotora de desenvolvimento econômico e fornecedora de serviços públicos essenciais, ou não. O presente trabalho tem o objetivo de realizar pesquisa de satisfação junto à sociedade do município de Eldorado do Sul, como forma de subsidiar os gestores locais no realinhamento de ações nas áreas que, segundo a ótica do cidadão-usuário, aparecem com maiores insatisfações. Pesquisas de opinião pública são ótimos instrumentos disponíveis às empresas como forma de melhor conhecer e agir no mercado; paralelamente, na administração pública, como forma de instrumento de apoio à tomada de decisão, ainda é pouco utilizado pelos agentes de decisão. A pesquisa de satisfação foi realizada na zona-urbana do município, com 19.242 habitantes e teve uma amostra de 113 casos. As áreas pesquisadas foram: saúde, educação, assistência social, obras viárias e imagem de governo. Os resultados demonstraram o nível de satisfação dos cidadãos- usuários nas mais diversas variáveis de cada área abordada, tendo a área de Educação aparecida com maior satisfação entre os serviços públicos; a área de saúde, ao contrário, como de maior insatisfação; a imagem do governo, por sua vez, aparece bastante fragilizada frente à satisfação do cidadão. A partir destas análises, os gestores têm um bom instrumento de avaliação de políticas públicas, podendo assim, tomar medidas de correção em ações.
Resumo:
Os materiais compósitos reforçados por fibras apresentam vantagens quando comparados aos materiais de construção mais tradicionais como concreto e aço. Por outro lado, devido ao fato destes materiais serem relativamente recentes no mercado, questões a respeito de sua durabilidade são ainda objeto de discussão e faz-se necessária intensa pesquisa sobre o envelhecimento dos compósitos. Como conseqüência, recentemente têm surgido inúmeros trabalhos à respeito da degradação dos compósitos considerando efeitos como temperatura, oxidação, radiação UV, condições de carregamento, etc. A maioria destas pesquisas, no entanto, são realizadas a nível de material e não são diretamente aplicáveis à situações de projeto. Desta forma, existe grande demanda por novos estudos e dados compatíveis com aplicações estruturais. Neste trabalho apresenta-se um modelo analítico-numérico adequado para, interpretação e aplicação destes dados experimentais em análise e projeto de estrutural. A formulação proposta inclui relações constitutivas elásticas anisotrópicas com envelhecimento, relações constitutivas viscoelásticas anisotrópicas com envelhecimento em termos de variáveis de estado, análise de falhas com critério de degradação ajustado à idade do material e considera-se grandes deslocamentos e pequenas deformações. As diferenças essenciais entre os processos de envelhecimento em endurecimento e amolecimento são descritos juntamente com as relações constitutivas para cada caso. Estas equações são deduzidas na forma adequada para análise numérica via método dos elementos finitos usando uma solução incremental-iterativa com consideração de efeitos pos-críticos. Vários exemplos são apresentados, incluindo análises elásticas, viscoelásticas e de falha com envelhecimento.
Resumo:
Este trabalho apresenta um modelo de gerenciamento dinâmico de uma cadeia de suprimentos que tem por objetivo determinar os níveis de pedidos, vendas, estoque e níveis de serviço da cadeia de suprimentos de modo a otimizar a lucratividade total da cadeia. A lucratividade da cadeia de suprimentos é enfocada sob a perspectiva da inclusão dos efeitos dos custos de transporte por meio de uma estrutura linear côncava de custos. Essa estrutura é composta por um conjunto de equações ajustadas, representativas dos custos de transporte. Assim, é possível a obtenção de economias de escala em função das quantidades entregues. O trabalho pode ser dividido em duas etapas principais. A primeira etapa compreende, em um contexto de gerenciamento da cadeia de suprimentos, uma revisão bibliográfica que abrange os principais aspectos da modelagem tradicionalmente utilizada para a determinação de quantidades ótimas de pedido e entrega, as principais deficiências e as diferentes abordagens de custos de transporte. A segunda etapa é caracterizada pela formulação, simulação e avaliação dos resultados do modelo de gerenciamento dinâmico da cadeia. Nessa etapa, analisa-se a influência da estrutura de custos de transporte nas decisões de reabastecimento da cadeia de suprimentos. A determinação dos níveis de pedidos, vendas, estoque e de serviço, os custos e a lucratividade da cadeia é feita a partir da otimização de cenários. Neste trabalho realiza-se uma análise comparativa de cenários para identificar a influência da alteração de parâmetros nos resultados do modelo. Os resultados apresentam-se promissores e, com relação aos custos de transporte, verificou-se que os limites de capacidade de transporte e os custos mínimos de transporte têm grande influência nas decisões de reabastecimento. Enfim, a principal contribuição deste trabalho está relacionada à possibilidade de tornar a estrutura de custos de transporte dos modelos de gerenciamento dinâmico da cadeia de suprimentos mais próxima da estrutura de custos reais. Palavras-chave: cadeia de suprimentos; custos de transporte; modelo de gerenciamento dinâmico.
Resumo:
Apresenta o método value at risk (VaR) para se mensurar o risco de mercado, sob diferentes abordagens. Analisa a série histórica do índice Bovespa no período de 1995 a 1996 por meio de testes econométricos de normalidade, autocorrelação dos retornos e raiz unitária. Comparo valor obtido a partir dos diferentes modelos de estimação de volatilidade propostos e verifica qual dos modelos foi o mais adequado para o caso estudado
Resumo:
A hipercolesterolemia é um importante fator de risco para o desenvolvimento da nefropatia diabética em pacientes com diabete melito tipo 2 (DM2). Têm sido descritas alterações na composição dos ácidos graxos (aumento na proporção de ácidos graxos saturados e monoinsaturados e redução da família n-6) em pacientes com DM2 e hiperlipidemia. No entanto, a composição de ácidos graxos nas lipoproteínas de pacientes DM2, particularmente naqueles com microalbuminúria, não é conhecida. O objetivo deste trabalho foi analisar a composição dos ácidos graxos séricos nas frações fosfolipídeos, triglicerídeos e ésteres de colesterol, e o perfil lipídico sérico de pacientes DM2 micro- e normoalbuminúricos. Foi realizado um estudo caso-controle com 72 pacientes DM2: 37 normoalbuminúricos (excreção urinária de albumina [EUA] < 20μg/min: imunoturbidimetria) e 35 microalbuminúricos (EUA entre 20 e 200μg/min). Os pacientes receberam orientação nutricional de acordo com as recomendações da Associação Americana de Diabete e foram acompanhados por 4 semanas. Após este período foi analisada a composição dos ácidos graxos nas frações fosfolipídeo, triglicerídeo e ésteres de colesterol, determinada por cromatografia gasosa. O colesterol total e triglicerídeos séricos foram dosados por método enzimático colorimétrico; o colesterol HDL e frações HDL2 e HDL3 por dupla precipitação com heparina, MnCl2 e sulfato de dextran; a apolipoproteína B por imunoturbidimetria; e o colesterol LDL foi calculado pela fórmula de Friedewald. A aderência à orientação da dieta foi avaliada por registro alimentar com pesagem de alimentos e dosagem de uréia urinária de 24h (método cinético) para cálculo da ingestão protéica. Nos pacientes microalbuminúricos, a proporção de ácidos graxos poliinsaturados na fração triglicerídeo (24,8 ± 11,0%) foi menor do que nos pacientes normoalbuminúricos (34,1 ± 11,3%; P = 0,001), principalmente na família n-6 (21,7 ± 10,5 vs. 31,4 ± 11,5%; P < 0,001). Pacientes com microalbuminúria também apresentaram níveis maiores de ácidos graxos saturados na fração triglicerídeo (43,4 ± 18,0%, vs. 34,7 ± 13,1%; P = 0,022). Feita a regressão logística múltipla, somente a proporção de ácidos graxos poliinsaturados na fração triglicerídeo permaneceu significativa quando associada com microalbuminúria (OR = 0,92; 95% IC = 0,85-0,98; P = 0,019). Na fração ésteres de colesterol, os pacientes microalbuminúricos apresentaram menor proporção de ácidos graxos poliinsaturados n-3 (3,44 ± 3,39% vs. 5,98 ± 6,56%; P = 0,044). Não se observou diferença na composição de ácidos graxos na fração fosfolipídeo entre os dois grupos de pacientes. Os níveis de colesterol total, colesterol HDL, colesterol LDL, triglicerídeos e apolipoproteína B não foram diferentes entre os pacientes normo- e microalbuminúricos. Pacientes com DM2 e microalbuminúria apresentam níveis menores de ácidos graxos poliinsaturados, principalmente na família n-6 na fração triglicerídeo. Esta associação pode representar um fator de risco para a doença cardiovascular e pode contribuir para a progressão da nefropatia diabética.
Resumo:
O armazenamento de grandes quantidades de informações em bases de dados cria a necessidade de se usar Métodos de Acesso a esses dados de uma forma mais eficiente do que uma busca linear. Dessa forma, diversos Métodos de Acesso vêm sendo propostos há décadas. Desde os mais simples Métodos de Acesso como árvores B até os mais sofisticados Métodos de Acesso Métrico tem-se o mesmo objetivo: a eficiência na consulta. Para cada tipo de dados, para cada tipo de consulta, existe uma diferente forma de acesso mais adequada. Se os dados puderem ser ordenados, pode-se usar uma àrvore B. Na busca por pequenas cadeias de caracteres, pode-se utilizar uma árvore de sufixos. Com a evoluçãocomputacional, não se quer armazenar apenas números ou pequenas seqüências de texto. Já existem diversas bases de dados muito mais complexas, como seqüências de sons, imagens ou até mesmo vídeos armazenados. A complexidade desse tipo de dados e do tipo de consulta feita em cima deles gerou a necessidade de novos Métodos de Acesso. Os chamados Métodos de Acesso Métrico são estruturas capazes de acessar dados bastante complexos, como arquivos multimídia, com uma boa eficiência. Esse tipo de estrutura vem sendo estudada há muitos anos, mas a primeira delas realmente eficaz foi a árvore M. Depois dela, vários outros Métodos de Acesso Métricos surgiram, como a árvore Slim, M2, M+, DF, DBM aprimorando sua estrutura básica Esse trabalho propõe a árvore TM, que inova a forma como os dados são indexados, aprimorando a árvore M. Essa nova estrutura, usa o espaço métrico para a busca dos dados, o que é feito por todos Métodos de Acesso Métricos. Mas sua inovação está na forma como os dados são indexados, usando-se um espaço novo também proposto nesse trabalho, o espaço distorcido. Experimentos mostram uma melhora significativa na eficiência da consulta tanto em quantidade de acesso a disco quando em custo de processamento.
Resumo:
Na passagem para o século XX, a agricultura sofreu transformações no modelo de produção. Atualmente, a maior parte dos alimentos são produzidos no modelo da agricultura convencional baseada na utilização intensiva de insumos químicos e alta produtividade, em contraponto, a agricultura orgânica está alicerçada na independência de insumos externos e na qualidade dos alimentos. O morango (Fragaria x Ananassa Duch), reconhecido por suas vitaminas e compostos quimioprotetores, tais como o ácido ascórbico e licopeno, é uma cultura produzida tanto no sistema orgânico, quanto no convencional. Entretanto, não existem informações sobre os tipos de sistemas existentes dentro destas duas formas de fazer agricultura e nem dados sobre os conteúdos de ácido ascórbico e de licopeno. Os objetivos deste trabalho foram: tipificar os sistemas de cultivo praticados e identificar as características básicas da produção de morango em Porto Alegre; quantificar os indicadores nutricionais licopeno e ácido ascórbico em morangos cv. Vila Nova, oriundos de diferentes sistemas de cultivo e avaliar a possibilidade dessas substâncias servirem como descritores da qualidade biológica dos frutos produzidos nestas diferentes formas de fazer agricultura. Foram escolhidos cinco sistemas de produção de morangos no bairro Lami, Porto Alegre/RS, sendo duas propriedades orgânicas (OJ, OS) e três convencionais (CN, CP, CB) Para a tipificação foi usada à observação participativa com registro dos dados sobre a intensidade dos componentes de cultivo (manejos, adubação, controle fitossanitário, técnicas de irrigação) e sócio-econômicos. Para medir os teores de licopeno e ácido ascórbico foram cultivados morangos cv. Vila Nova, os quais foram colhidos maduros e analisados. Dentro do sistema convencional existe uma intensidade variada na utilização de insumos. No sistema orgânico um foi tipificado como agroecológico e outro como em final de transição para o orgânico. Os sistemas convencionais têm alta demanda por produtos externos, principalmente em relação à adubação (adubos minerais de alta solubilidade), irrigação (mangueiras, etc) e controle fitossanitário (produtos químicos de síntese) e os sistemas orgânicos apresentam uma baixa dependência externa em relação ao controle fitossanitários, irrigação e manejo. Eles apresentaram dependência de adubos orgânico de origem animal. Os resultados demonstraram que o conteúdo de licopeno variou de 0,033 a 0,063 mg/100g de peso fresco e que ele não foi eficiente como descritor da qualidade hortícola de morangos cultivados em sistemas orgânicos e convencionais. O conteúdo de ácido ascórbico foi de 30,05 a 69,39 mg/100g de peso fresco. Esta vitamina não discrimina diferenças entre os sistemas, e não pode ser considerada como um descritor de qualidade biológica de morangos cultivados em sistemas orgânicos e convencionais.
Resumo:
Este capítulo apresenta uma análise dos programas de transferência de renda no Brasil. As evidências empíricas dos programas sociais e do Bolsa Família demonstram que tais programas têm sido efetivos em focalizar as transferências de renda para as famílias mais pobres mas não em estimular de maneira significativa a acumulação de capital humano das novas gerações. O maior mérito dos programas tem sido fazer com que as políticas sociais de transferências cheguem aos mais pobres. Criou-se no Brasil uma tecnologia de políticas públicas de alcance aos mais pobres. O desafio está em aproveitar esta tecnologia para aumentar a eficácia e a eficiência das políticas sociais de modo a eliminar a pobreza no Brasil. O que se deve buscar é a inserção dos beneficiários dos programas no mercado de trabalho e obtenção de sua autonomia e independência. Propõe-se uma série de medidas que direcionem as políticas sociais para atender a este objetivo
Resumo:
Fenômeno que tem sofrido um crescimento considerável nas últimas décadas, a constituição de projetos de memória empresarial se insere em um panorama mais amplo de valorização do passado na sociedade contemporânea, caracterizada pela 'febre da memória'. Parte de um expediente que tem como objetivo final fortalecer a identidade e a imagem dessas instituições entre seus funcionários e o público mais amplo, essas iniciativas têm gerado diferentes produtos e linhas de ação, sendo inicialmente vinculadas às áreas de marketing e comunicação, mas mostrando sinais de profissionalização e ampliação dos seus horizontes. O presente estudo tomou como objeto de análise o projeto memorial do Banco Itaú, criado em 2003, buscando compreender a natureza dessa iniciativa e de que maneira ela colabora na consolidação da imagem de 'vocação' cultural do Banco.