997 resultados para sistema de informações sobre mortalidade


Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os produtores e as Cooperativas de Produtores de Café atuam em um ambiente incerto e competitivo, e estão enfrentando dificuldades de adaptação ao novo cenário econômico e tecnológico mundial. Para ter sucesso no empreendimento é necessário não apenas saber produzir, mas principalmente saber comercializar o café. O tradicional problema de decisão sobre como determinar o melhor momento de vender o café foi agravado pela globalização econômica (aumento da concorrência e crescente exigência em qualidade) e pelo advento da Tecnologia da Informação - TI - (grande quantidade de informações sobre o mercado de café, obtidas de modo desestruturado e às vezes de idoneidade duvidosa). Para avaliar oportunidades e realidades do uso estratégico da TI para a gestão das cooperativas de cafeicultores, considerou-se neste trabalho um problema específico: a questão do controle de estoques de café e a apuração de seus custos por qualidade. Os modelos gerenciais tradicionalmente utilizados envolvem sistemas convencionais de controle de estoque e análise de custos, mas controlam apenas as quantidades estocadas por tipo de café, não controlando seus custos. Normalmente consideram como custo a média dos preços de compra de café, em um determinado período. Assim impossibilitam o conhecimento do verdadeiro custo do produto vendido de acordo com sua qualidade, comprometendo a apuração de sua real margem de lucro em cada operação de venda. Logo, o resultado real das compras e vendas de café só é conhecido quando analisado um longo período, porque sofre influência das flutuações dos vários tipos de café que são comercializados. Partiu-se da hipótese de que o conhecimento da dinâmica da informação no complexo agroindustrial do café e o uso da Tecnologia de Informação como estratégia para instrumentalizar as decisões e melhorar o desempenho na comercialização de café pelas cooperativas de produtores possibilitam uma melhor organização e avaliação das informações necessárias para o planejamento da comercialização por essas cooperativas, aumentando a rentabilidade e contribuindo para a profissionalização do setor. Utilizando a TI para a integração do sistema de controle de estoques, comercialização e custos, foi desenvolvido um modelo conceitual para o gerenciamento dos estoques e custos de café por qualidade, visando a contribuir para a melhoria dos resultados obtidos pelas cooperativas. O estudo partiu da determinação das variáveis envolvidas no processo de comercialização do café. Desenvolveu-se um modelo conceitual para auxiliar o controle e o conhecimento do real custo do café por qualidade, possibilitando a correta apuração do resultado econômico, contribuindo para melhorar o controle estratégico dos estoques de café e o planejamento operacional do preparo dos blends. Em anexo, apresentam-se planilhas simulando a operação do modelo. O uso deste modelo permite que os administradores se antecipem aos problemas, reduzindo riscos e descobrindo oportunidades através de um melhor uso do recurso informação, gerando ganhos em competitividade. O modelo conceitual apresentado integra a gestão de estoques com o gerenciamento de custos de café por qualidade. Parte de uma visão ampliada da administração da cooperativa, considerando o trabalho dentro e fora da empresa, relacionando os controles de estoques da cooperativa e do cooperado, fisico e "virtual" (estoque do cooperado que EAESP/FGV - COA - Luciel Henrique de Oliveira - 1998 6 foi utilizado) e o mercado consumidor, possibilitando um controle mais eficiente para a redução do risco da cooperativa. O conhecimento das caracteristicas dos tipos de café por qualidade, que compõem o controle de estoque fisico e que fazem flutuar a conta opção, traz maior autonomia e segurança. O modelo atende ao desafio da melhoria contínua da qualidade da gestão, através da visão integrada da empresa, possibilitando o conhecimento real dos custos envolvidos e da margem de lucro, por qualidade, em cada operação. Busca-se um melhor controle das operações, dos custos dos produtos vendidos, de acordo com sua qualidade e sua margem de lucro em cada operação de venda, possibilitando um melhor planejamento da comercialização pelas cooperativas. Ao propor um novo modelo, integrando a análise custos e qualidade, o trabalho provocou o exame de vários procedimentos atualmente em uso, preparando o ambiente da empresa para uma nova mentalidade gerencial. Fez com que procedimentos relacionados à qualidade do café fossem devidamente estruturados no modelo de operação da empresa, servindo de referência para os trabalhos rumo à integração gerencial e à certificação ISO 9002, exigência do mercado externo e tendência no mercado interno. Deste modo, a cooperativa iniciou um processo de melhoria contínua, com a constante identificação de oportunidades, inspecionando e atualizando índices, levantando problemas e propondo soluções. O trabalho traz uma colaboração aos estudos de gestão integrada no agribusiness do café. A inovação ocorre através do desenvolvimento de um modelo conceitual de gestão de estoques e custos por qualidade, aliado ao modelo de gestão econômica, contribuindo para a melhoria da administração e do desempenho do setor. Aponta uma oportunidade de se dar um avanço para a gerência de custos e riscos, tornando o setor mais competitivo e de acordo com a nova cultura empresarial e com os padrões de competição de mercado.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O presente trabalho objetiva avaliar os impactos provenientes das regras eleitorais do sistema político brasileiro sobre o comportamento dos deputados federais, em particular, quanto à decisão de alocação de recursos orçamentários através das emendas feitas ao Orçamento. A literatura tradicional pressupõe que estas escolhas estarão vinculadas essencialmente à formação e manutenção do reduto eleitoral de domínio do deputado. Os incentivos, que direcionariam a ação completamente individual dos candidatos no período de eleições, permaneceriam na mesma direção durante a atuação do parlamentar eleito. Isto resultaria em uma Câmara de Deputados completamente desarticulada, sem nenhuma influência dos partidos políticos. No extremo oposto deste cenário, ainda que parcela dos autores assuma posição intermediária, interpretações recentes contestam esta visão, trazendo diferentes motivações para a atuação individual do parlamentar, mais organizadas e coordenadas, atribuindo papel ao funcionamento dos partidos. Esta literatura mais atual, porém, não investigou os incentivos para a proposição de emendas orçamentárias, lacuna que este trabalho pretendeu cobrir. Os resultados encontrados aqui corroboram a interpretação mais recente sobre o funcionamento do sistema político. No capítulo primeiro, em que são propostos indicadores que avaliam a concentração eleitoral dos deputados paulistas, os resultados indicam que as votações não são tão concentradas como a interpretação tradicional afirma. No segundo capítulo, é avaliada empiricamente a possibilidade da existência da dominância política para o caso de São Paulo. Esta investigação sugere que este conceito não pode ser afirmado como a regra para o sistema político. Em seu lugar, os modelos trabalhados, em que as eleições para deputado e prefeito mostram ser correlacionadas, parecem refletir melhor o funcionamento do sistema político nacional. Por fim, o terceiro capítulo verifica os incentivos para a proposição de emendas. Seus resultados sugerem que os deputados se influenciam não só por seus resultados individuais nas eleições, mas levam em conta as cidades em que os prefeitos são de seu partido. Além disto, os dados sugerem haver a existência de um ciclo de alocação de emendas de acordo com o momento ao longo do mandato. As evidências trazidas por este trabalho sugerem avanços na literatura recente sobre o sistema político brasileiro e merecem novas investigações que ampliem a compreensão sobre tema tão relevante.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Analisa a possibilidade de uso estratégico da tecnologia de informação dentro do setor de hotelaria. Conceitua sistema de informações e tecnologia de informação, apresentando a segunda como um dos componentes da primeira. Apresenta um panorama sobre o pensamento e gestão da estratégia empresarial contemporânea. Discute a importância do alinhamento entre a estratégia de negócios e a estratégia de tecnologia de informação da empresa, apresentando modelos de planejamento e avaliação de investimentos que levem à sua ocorrência. Realiza uma análise macro ambiental do setor de turismo, no Brasil e no mundo. Discute aspectos da legislação brasileira que regula o setor hoteleiro e realiza uma análise estratégica da indústria de hotelaria de negócios brasileira. Apresenta um estudo de caso, analisando o caso do hotel Maksoud Plaza e verifica a existência de uso da tecnologia de informação na estratégia de negócios deste

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os estudos realizados sobre Unidades de Conservação, e a relação destas Unidades com a população que as habita, trataram em sua maioria dos aspectos antropo-sociológicos da questão. Visto que um aspecto essencial para uma melhor compreensão da questão das populações tradicionais e Unidades de Conservação, contudo pouco explorado, é o processo de mudanças de uso do solo nas regiões em que se inserem estas Unidades, esta pesquisa teve como pretensão preencher esta lacuna. Para tal, são analisadas as transformações de uso do solo em regiões com Unidades de Conservação ambiental e comunidades tradicionais nelas inseridas dentro da realidade brasileira, a fim de melhor compreender suas inter-relações, assim como as implicações de políticas de preservação ambiental incidentes nestas áreas. Esta análise se dá através de modelos de mudança de uso do solo, que são artifícios científicos com estrutura matemática e computacional para apoio ao Planejamento e Gestão Urbana e Regional, e que permitem a análise das causas e das conseqüências da dinâmica dos usos do solo, e quando cenários são utilizados, podem ainda dar suporte ao estabelecimento de políticas e ações de planejamento. Optou-se pela utilização de um sistema de modelagem espaço-temporal integrando um sistema de informações geográficas e um modelo de autômatos celulares como ferramenta de análise das mudanças de uso do solo, incrementado pela análise de demandas pela cadeia de Markov, e com cálculo de preferências de alocação de usos do solo através da Regressão Logística. Procede-se nesta pesquisa a uma avaliação das tendências de uso do solo no Parque Nacional do Superagui, localizado no litoral norte do Estado do Paraná, enquanto estudo de caso. As tendências de uso apresentadas entre os períodos de 1980 e 1990, período anterior à implementação da lei que transformou a área em Parque Nacional, e que poderia ser traduzida como a tendência natural destas comunidades sem a interferência das políticas, são trabalhadas com vista a demonstrar o papel da modelagem na compreensão de realidades, e fornecer embasamento para intervenções pretendidas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

o presente trabalho busca ampliar o conhecimento das relações entre aglomerados abertos de estrelas e seus remanescentes. Do ponto de vista observacional, um remanescente pode ser definido como uma concentração pouco povoada de estrelas resultante da evolução dinâmica de um sistema inicialmente mais massivo. Apesar do avanços no conhecimento teórico a respeito desses objetos e, nos últimos anos, da busca pela identificação observacional dos mesmos ter aumep.tado, muitas questões permanecem em aberto. Assim, no presente estudo serão analisados 23 candidatos a remanescentes através de dados fotométricos, espectroscópicos e de movimentos próprios. Esses dados fornecem informações sobre os objetos e seus campos. Por meio destas, buscam-se estabelecer critérios de definição de remanescentes de aglomerados abertos, levando-se em conta incertezas observacionais. Os dados fotométricos no infravermelho oriundos do catálogo The Two Micron Ali sky Survey possibilitam, nesse estudo, (i) estudar as propriedades estruturais dos objetos por meio dos perfis de densidade radial de estrelas; (ii) testar a semelhanças entre objetos e campos através de um método estatístico de comparação entre distribuições de estrelas no plano do diagrama cor-magnitude e, (iii) obter idades, avermelhamentos e distâncias com o uso de diagramas cor-magnitude, além de distinguir os objetos em função de um índice de ajuste de isócronas. Os dados espectroscópicos obtidos através de observações óticas no Complejo Astronómico EI Leoncito (Argentina) fornecem para 12 objetos da amostra informações adicionais de avermelhamentos e idades. Os dados cinemáticos extraídos do The Second U. S. Naval Observatory CCD Astrograph Catalog permitem, por sua vez, uma comparação objetiva entre a distribuição de movimentos próprios dos objetos e campos próximos de grande ângulo sólido O emprego desses métodos complementares se mostra essencial no estudo em função da carência de dados completos para os candidatos a remanescentes. No que diz respeito à amostra, em geral não é possível afirmar individualmente qual objeto caracteriza-se de forma definitiva como um remanescente de aglomerado aberto devido à incompleteza dos dados, às incertezas observacionais e à baixa estatística. Entretanto, os métodos desenvolvidos permitem uma análise objetiva e sugerem a presença de remanescentes de aglomerados abertos na amostra. Além disso, há evidência da presença de binarismo, o que é esperado para sistemas evoluídos dinamicamente. Portanto, pode-se inferir sobre estágios evolutivos para remanescentes a partir das distribuições de movimento próprio de suas estrelas e de seu mapeamento no diagrama cor-magnitude.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A elaboração de diagnósticos e a tomada de decisões sobre o meio físico, com a finalidade de estabelecer diretrizes para a ocupação racional do solo, são cada vez mais prementes, especialmente, no que diz respeito ao direcionamento da expansão urbana para áreas mais favoráveis. Da mesma forma, a facilidade de acesso aos parâmetros geotécnicos de uma região constituí um inestimável recurso nas etapas preliminares dos projetos de Engenharia, no planejamento de atividades extrativas e nos programas de preservação ambiental. A cartografia geotécnica, nesse sentido, tem sido um dos instrumentos mais eficientes para a avaliação do meio físico nas últimas décadas. Entretanto, o desenvolvimento de um mapa geotécnico requer a análise de um grande número de informações que precisam ser tratadas e combinadas com rapidez. Esta tese apresenta uma metodologia para a integração de dados, por meio da ferramenta básica geoprocessamento, visando agilizar, na fase de escritório, a elaboração de mapas geotécnicos e a análise de determinados aspectos do meio físico sob o ponto de vista da Geotecnia, bem como suas interações com a mancha urbana existente. A área teste escolhida é o município de Porto Alegre (RS) situado na porção leste do estado do Rio Grande do Sul, à margem esquerda do Lago Guaiba, cuja paisagem é marcada pela diversidade de cenários naturais formados por terrenos de coxilhas, morros, cristas, lagos e planícies. A metodologia envolve a captura, o processamento e a integração de informações provenientes de fontes diversas como mapas temáticos, levantamento aerofotogramétrico, cartas topográficas, fotografias aéreas, imagens de satélite, boletins de sondagens SPT (Standart Penetration Test), dissertações e teses acadêmicas. Para isso, é constituída por nove etapas distintas, que utilizam: a) sistema de digitalização para a conversão de informações analógicas para o meio digital; b) modelagem digital do terreno (MDT) para o modelamento e a identificação do relevo, a determinação de declividades, o mapeamento de áreas com isodeclividades e o cálculo do fator topográfico, esse último objetivando a determinação da suscetibilidade à erosão laminar; c) técnicas de processamento e classificação de imagens orbitais para os mapeamentos das áreas inundáveis e da mancha urbana; d) Sistemas de Informações Geográficas (SIGs) para o processamento e a integração de informações georreferenciadas no computador; e) banco de dados digital para o armazenamento de dados descritivos sobre o meio físico e parâmetros geotécnicos obtidos em laboratório, sondagens e outras formas de investigação in situ. A estimativa das unidades geotécnicas é procedida com base na proposta metodológica para mapeamento geotécnico desenvolvida por Davison Dias (1995), na Universidade Federal do Rio Grande do Sul (UFRGS). Além da elaboração do mapa geotécnico, a metodologia propõe a análise e o cruzamento de vários fatores do meio físico com a mancha urbana existente, ou com uma subárea pertencente à região de estudo, a geração de mapas de aptidão do solo para diferentes usos e a identificação das áreas consideradas de eventos perigosos e de risco geológico. Os principais softwares empregados são o AutoCAD@, o SURFER@, ACESS@ e o IDRISI 2.0@, desenvolvido pela Clark University, USA. Os resultados obtidos a partir da implementação da metodologia demonstraram a importância e a contribuição que a ferramenta básica geoprocessamento pode trazer aos estudos geotécnicos. Os diferentes sistemas de geoprocessamento utilizados para a manipulação e tratamento das informações espaciais mostraram-se adequados e eficientes quando aplicados na coleta, processamento e integração de dados geotécnicos. Para a área teste foram identificadas trinta e sete unidades com perfis de solos com comportamento geotécnico praticamente similar frente ao uso e à ocupação do solo, cujas informações descritivas sobre o meio físico puderam ser facilmente acessadas e visualizadas, no computador, por meio da integração banco de dados geotécnicos com Sistema de Informações Geográficas. Por outro lado, o emprego de técnicas de processamento e classificação de imagens digitais revelou-se um recurso importante para a obtenção de informações sobre o meio físico, enquanto o uso de modelagem digital do terreno (MDT) agilizou o mapeamento das declividades e o cálculo da suscetibilidade potencial à erosão laminar, além de permitir a geração do relevo em perspectiva da região estudada.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Técnicas experimentais de óptica não-linear resolvidas no tempo são capazes, em diversas situações, de fornecer mais informações sobre a dinâmica e estrutura molecular do que técnicas sem nenhuma resolução temporal. Nesta tese investigou-se três sistemas com técnicas espectroscópicas resolvidas no tempo, utilizando pulsos ultra-curtos de um sistema LASER amplificado, baseado em cristal de Ti:Safira, e de amplificadores ópticos paramétricos. Para este estudo foram implementadas e analisadas quatro diferentes técnicas espectroscópicas resolvidas no tempo: Espalhamento Raman anti-Stokes Coerente (CARS), Espalhamento hiper-Rayleigh Resolvido no Tempo (TRHRS), Bombeio-Prova e Bombeio- Depleção-Prova. O três sistemas investigados apresentam um grau crescente de complexidade nas suas dinâmicas e interações com o meio. O primeiro dos sistemas estudados foi a dinâmica da molécula de H2 no regime de impacto, na presença de moléculas e átomos perturbadores (N2 e He). Foi possível determinar, pela primeira vez, coeficientes de alargamento para o ramo Q devido à colisões entre H2+H2 utilizando a técnica de CARS resolvido temporalmente, bem como novos coeficientes para o deslocamento das linhas. O emprego da mesma técnica em sistemas binários lançou mais luz sobre a possibilidade de existir alguma não-homogeneidade em tais tipos de colisões. O segundo experimento investigou a dinâmica de relaxação orientacional da acetonitrila em solução utilizando a nova técnica de TRHRS; esta foi desenvolvida e testada com sucesso pela primeira vez neste trabalho. Um modelamento teórico mostra que dentro do modelo de Debye para a difusão rotacional, tempos associados ao terceiro momento do tempo de difusão (τ3) e ao primeiro momento (τ1) devem ser observados. Os resultados experimentais para a acetonitrila apresentam um decaimento consistente com este modelo (τ3~850 fs), concordando também com valores derivados de resultados experimentais e teóricos obtidos por outros métodos. Além disso, também foi observado experimentalmente uma segunda componente mais rápida (~50 fs), que não pôde ser explicada dentro do modelo de difusão rotacional livre. Esta componente foi atribuída a efeitos reorientacionais coletivos em conjunto com efeitos de superposição temporal de pulsos. A interpretação do sinal desta nova técnica foi testada com sucesso realizando o experimento em tetracloreto de carbono.O terceiro sistema investigado foi a dinâmica de relaxação de energia intramolecular de carotenóides. A principal questão, da vii existência ou não de estados eletrônicos adicionais, foi abordada utilizando uma modificação da técnica de Bombeio e Prova, denominada de Bombeio-Depleção-Prova. A técnica de Bombeio-Depleção-Prova foi pela primeira vez utilizada em carotenóides, possibilitando observar dinâmicas nunca vistas por qualquer outra técnica experimental. Dentro da resolução temporal dos experimentos realizados, a presença de novos estados eletrônicos em carotenóides livres em solução é descartada. Além disso, uma nova ferramenta de análise de dados foi desenvolvida. A análise de alvos espectrais baseada em um algoritmo evolutivo trouxe mais argumentos para o modelo clássico de três níveis. A dinâmica de carotenóides livres em solução foi comparada com sua dinâmica quando inseridos no complexo fotossintético de coleta de luz (LH2) da bactéria púrpura, utilizando para isso a técnica de Bombeio e Prova. Os resultados obtidos mostram um sistema de níveis de energia mais complexo do que quando o carotenóide está livre em solução. Esta modificação devido ao ambiente é possivelmente gerada pela quebra de simetria do carotenóide quando inserido no complexo LH2, possibilitando o cruzamento entre sistemas (singlete-triplete).

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Atualmente, a globalização dos mercados consumidores tem feito com que as empresas procurem ampliar suas vendas de produtos e serviços para consumidores ao redor de todo o mundo. O crédito para pessoas físicas e jurídicas figura hoje em dia como grande fator para a melhoria das condições financeiras a população e do país. Entretanto, a ausência de dados e informações no mercado a respeito dos consumidores, aumenta a incerteza e o risco no momento da venda de produtos e serviço e gera problemas como a inadimplência e a fraude, o que por sua vez, implica em um aumento dos custos de venda. Tais riscos propiciaram o surgimento de empresas de serviços de dados, especialistas em coleta e garantia das informações sobre consumidores e empresas, bem como na análise deste tipo de informação com uma orientação voltada aos clientes que possuem essa necessidade. O propósito dessa pesquisa é ampliar os conhecimentos sobre os relacionamentos nessa rede de informações e como esse mercado se desenvolveu a atualmente interage no Brasil. A pesquisa se aplica à Gestão das Cadeias e Redes de Suprimentos, visto que os relacionamentos envolvem ligações laterais, retro-alimentação, trocas mútuas com os diversos atores. É proposto um diagrama do valor das informações de crédito nos processos de compra, tendo sido entrevistadas empresas clientes e fornecedores em vista a enfatizar a evolução da rede de relacionamentos que tais informações envolvem. A pesquisa apresenta os principais aspectos de desempenho dessa rede de suprimentos e sua cadeia produtiva, tendo sido analisado, dentro de um caso de estudo, o tratamento dado às informações, e seu processo de coleta e distribuição. Os resultados da pesquisa demonstram que existem benefícios nesse tipo de estudo, junto às estratégias de relacionamentos, dentro de uma Rede de Suprimento voltado à informação.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Os hospitais de ensino são componentes estratégicos no sistema de saúde. Para cumprirem seu papel na atenção à saúde, ensino e pesquisa de forma integrada ao sistema necessitam de uma gerência competente. O objetivo deste estudo foi identificar a percepção dos profissionais em cargos de direção nos HU vinculados às IFES acerca de um conjunto de papéis e responsabilidades gerenciais. A metodologia utilizada foi a aplicação de um questionário, desenvolvido pela autora, que abordou também aspectos relativos aos HU e aos diretores. O grupo de potenciais respondentes foi composto pelo Diretor(a) Geral, Diretor(a) Clínico(a) e Diretor(a) Administrativo(a) de 42 dos HU/IFES. Ao todo 33 diretores responderam o questionário. De forma geral, os respondentes reconheceram as questões apontadas no instrumento como responsabilidade da gerência. O maior grau de concordância dos diretores com as afirmações constantes no questionário foi identificado nos papéis e responsabilidades relativos à motivação dos funcionários, à coordenação do trabalho das suas equipes, à realização de negociações e ao conhecimento da dinâmica de poderes do HU. O menor grau de concordância foi encontrado em relação à responsabilidade na promoção da comunicação interna no hospital. Outro papel não muito percebido pelos respondentes como pertencente ao trabalho do dirigente foi a responsabilidade em divulgar informações sobre o HU. Tal prática é fundamental para o exercício da transparência de gestão, do controle social e do compromisso com resultados, itens presentes na atual agenda da política pública definida para o segmento de HE.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Este trabalho tem como objetivo principal estudar os observatórios locais de políticas públicas e sua contribuição à democracia quanto à transparência e à produção das informações. Em razão dos observatórios serem ainda pouco estudados, estetrabalho tem caráter exploratório no sentido de buscar compreender a origem deste tipo de instituição, e a descrição e análise de suas principais características, ressaltando-se seu objetivo principal de produção de informações sobre políticas públicas em nível local de governo. A análise empírica buscou contribuir para a compreensão deste fenômeno institucional por meio de dois estudos de caso de observatórios locais de políticas públicas no Brasil: o Observatório dos Direitos do Cidadão, em São Paulo, e o Observatório das Metrópoles, no Rio de Janeiro. Em ambos, buscou-se revelar suas características principais, analisando-se seus objetivos e atividades realizados, relacionados à produção, disseminação e “tradução” das informações (no sentido de torná-las acessíveis ao cidadão comum), além seu uso no monitoramento das políticas públicas. As informações sobre os estudos de caso provêm da análise de: documentos (publicações e relatórios institucionais) dos observatórios; análise de sites na internet; entrevistas e observações realizadas nas sedes dos observatórios. Os resultados obtidos relacionam a origem destas instituições no Brasil ao contexto histórico da redemocratização e aos atores sociais e temáticas que emergem desse contexto. Buscou-se apresentar a complexidade deste arranjo institucional que, voltado à produção de informação de qualidade e aliando modernas tecnologias de informação e comunicação, tornou-se um espaço de relações intersociais, dado que desenvolvidas entre personagens oriundos da universidade, das ONGs e dos movimentos sociais. Por fim, buscou-se demonstrar a contribuição destas instituições para o fortalecimento de setores excluídos da sociedade no sentido de sua capacitação para a participação, o controle social, e o desenvolvimento de uma cidadania ativa.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

Esta dissertação avalia o impacto da educação sobre a renda dos jovens no Brasil, seguindo a tradição de equações de determinação de salários. O trabalho difere dos trabalhos na área realizados no Brasil em quatro aspectos. Em primeiro lugar, Em primeiro lugar, o universo de análise está focado na população jovem brasileira, a qual ingressou recentemente no mercado de trabalho e nele permanecerá por muitos anos, o que traz informações sobre as características desse mercado para os próximos 25 a 35 anos. Além disso, ele difere porque introduz a qualidade do ensino como determinante dos rendimentos. Depois, porque adota um protocolo de imputação da qualidade da educação dos jovens para os quais não se tem informação sobre a qualidade da educação, de sorte a evitar viés de seleção. E, por fim, a dissertação contrasta com os estudos correntes no tema porque explora diferentes métodos de estimação dos retornos da educação e da qualidade do ensino. Além do método tradicional dos estimadores de OLS, este trabalho considera o uso de fronteiras estocásticas de salários. As estimativas foram feitas a partir de um modelo cross-section em dois estágios. No primeiro estágio, estimou-se a equação de determinação da probabilidade de um jovem entre 11 e 21 anos de idade estudar na rede pública ou na rede privada, escolas com diferenças qualitativas grandes no país. No segundo estágio, imputou-se um indicador de qualidade da educação dos jovens num modelo econométrico de determinação da renda dos jovens entre 16 e 25 anos de idade. O procedimento com imputação foi necessário simplesmente pelo fato de nas estatísticas brasileiras não haver informações sobre a qualidade do ensino adquirido pelos indivíduos. A análise permitiu mostrar que a qualidade da educação interfere de forma significativa na renda dos jovens, com grande impacto sobre os índices de desigualdade da distribuição de renda nessa faixa de idade. Também permitiu mostrar que existe um trade-off entre o retorno da e

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A política de dividendos apresenta-se como um dos pilares decisórios por parte dos gestores de finanças corporativas, juntamente com as políticas de investimento e financiamento. As teorias sobre política de dividendos desenvolveram-se baseadas nas considerações originais de Miller e Modigliani, como também através dos estudos de Lintner e Gordon. Diversos pontos são abordados em vários estudos posteriores, tais como impactos tributários, custos de agência, informações assimétricas e sinalização ao mercado. O tema continua sendo vastamente estudado por diversos pesquisadores, tendo como base dados de diversas partes do mundo, com resultados controversos e pouco consenso sobre os reais efeitos de diferentes políticas de dividendos sobre as empresas e seus acionistas. Tal situação também é verificada no Brasil, onde existe um ponto diferencial a ser considerado: a distribuição dos denominados juros sobre capital próprio; mecanismo adicional para remunerar o acionista, o qual apresenta características tributárias específicas. O presente trabalho analisa um aspecto específico da política de dividendos: sua suposta capacidade de sinalização ao mercado. A premissa é que as distribuições de dividendos e juros sobre capital próprio representam sinalizadores ao mercado quanto à lucratividade futura das empresas, e, portanto, podem ser considerados como instrumentos válidos para os gestores passarem informações sobre as expectativas de desenvolvimento financeiro de suas empresas. Trabalhos realizados no mercado americano chegam a diferentes conclusões quanto a esta premissa, ora corroborando a teoria, ora negando a existência do conteúdo informacional de dividendos. Através de dados de empresas transacionadas na BOVESPA entre 1999 e 2004, o autor conclui que não é possível corroborar a teoria financeira tradicional, sumarizada na premissa mencionada acima. Dada a metodologia utilizada (regressão linear), não é possível confirmar relação relevante entre a variação (aumento ou diminuição) de distribuição de proventos aos acionistas com o aumento ou diminuição de lucros em momentos posteriores. Em suma, a política de dividendos permanece como um dos mais controversos aspectos da gestão de finanças corporativas.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A Doença de Gaucher (DG) é a doença de depósito mais comum. É causada pela deficiência da enzima -glicosidase (-gli), necessária para o catabolismo intralisossômico do glicocerebrosídio, sendo herdada de modo autossômico recessivo. Esta deficiência resulta em um acúmulo de glicocerebrosídio nos lisossomos de macrófagos derivados de monócitos em tecidos do sistema reticuloendotelial. No período de janeiro de 1982 a outubro de 2003 foram analisadas, bioquimicamente, 1081 amostras de sangue de pacientes com suspeita de DG. Nestas amostras foram medidas as atividades das enzimas -gli e quitotriosidase (QT). Foram diagnosticados 412 casos de DG (38,1%), sendo na sua grande maioria DG tipo 1. As regiões brasileiras de maior concentração destes pacientes foram as regiões sudeste, sul e nordeste. A idade média destes pacientes ao diagnóstico foi de 19 anos. A atividade da -gli de indivíduos com DG foi em média 10,7% daquela apresentada pelos indivíduos normais. A QT apresentou-se em média 269 vezes mais elevada no grupo de pacientes com DG. Nos 669 casos em que não foi confirmada a presença de DG, houve pacientes com Doença de Niemann-Pick tipos A, B ou C (44 casos), possíveis heterozigotos para DG (59 casos), pacientes com outras DL (19 casos) e outros EIM (3 casos) Em 508 casos não foi encontrado nenhum distúrbio metabólico. Foram analisadas as mutações de 128 indivíduos com DG, sendo que o genótipo N370S/L444P foi o mais freqüente (48,4%). Este estudo mostra que o protocolo bioquímico empregado foi eficiente para a detecção de DG, uma doença que se mostra bastante freqüente também no Brasil. Neste estudo também foi possível caracterizar o comportamento do pH ótimo, termoestabilidade, Km e Vmax da -gli em leucócitos de pacientes com DG e heterozigotos obrigatórios com diferentes genótipos comparando-os com indivíduos normais. Os resultados mostraram um comportamento diferente da enzima nos três grupos analisados. Esse comportamento variou conforme a mutação presente nos indivíduos. Não foi observado somente um único pH ótimo nos 3 grupos. A enzima de indivíduos normais mostrou uma faixa de pH de 5,0 a 5,4, a de heterozigotos, um único pH ou uma estreita faixa e a de indivíduos com DG, 2 picos de pH ótimo. O Km e a Vmax da enzima de heterozigotos variou desde igual até maior que aquele da enzima normal. Quando comparamos a enzima de indivíduos normais com aquela de pacientes com DG, observamos que nos genótipos N370S/N370S e N370S/IVS2+1 o Km foi maior e no grupo N370S/L444P o Km foi significativamente menor. A Vmax nos indivíduos com DG apresentou valores menores em relação aos indivíduos normais. A enzima de leucócitos de indivíduos normais, heterozigotos e homozigotos para DG, foi inativada a 60ºC. As diferenças de comportamento entre as enzimas dos três grupos analisados permitiram discriminá-los, ou seja, a enzima de indivíduos homozigotos apresentou uma maior atividade residual após 60 minutos de pré-incubação, sendo mais termoestável que os grupos de indivíduos normais e heterozigotos. . A mutação N370S produziu uma enzima mais estável e cataliticamente mais ativa que aquela da mutação L444P. Esta por sua vez, foi mais estável e ativa do que a mutação D409H. O mesmo aconteceu com os indivíduos homozigotos para DG, onde o comportamento bioquímico da b-gli foi determinado pela presença do alelo N370S. Portanto há um gradiente de estabilidade que vai de uma condição mais estável a uma condição menos estável. Este gradiente assemelha-se aquele da classificação do fenótipo clínico da DG. Os resultados nos permitem correlacionar diretamente a mutação N370S, mais estável cineticamente, com a forma clínica não neurológica da doença e a mutação menos estável cataliticamente (D409H) com a forma clínica neurológica da DG. Através deste trabalho foi possível obter informações sobre o comportamento da proteína em cada mutação estudada, seja ela em homo ou em heterozigose e estes dados podem colaborar para uma melhor distinção entre a enzima de indivíduos normais, heterozigotos e homozigotos para DG.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

A falta de qualificação da população brasileira tem sido muito criticada e estudos sobre a qualificação da mão-de-obra no Brasil são considerados prioritários no debate sobre desenvolvimento econômico. Com o intuito de contribuir nesse sentido, este artigo investiga se o ensino profissionalizante aumentou a probabilidade de inserção profissional e a renda dos egressos até meados da década de 1990, comparativamente aos que não cursaram esse tipo de ensino. Foram utilizados os microdados da Pesquisa sobre Padrões de Vida (PPV) de 1996 do IBGE, que tem informações sobre educação profissionalizante e é a única no Brasil que pode ser considerada geograficamente abrangente, uma vez que representa as regiões SE e NE. Não há no Brasil outro estudo geograficamente abrangente sobre esse tema. Os resultados revelam que os egressos de cursos profissionalizantes de nível básico tinham renda esperada 37% maior que a de indivíduos que não fizeram esse tipo de curso no ensino fundamental. Por outro lado, para os egressos do ensino profissionalizante de nível tecnológico, observa-se uma redução de 27% da renda esperada, comparativamente aos que não fizeram esse tipo de curso no ensino superior. Os cursos técnicos oferecidos em empresas reduzem a probabilidade de desemprego e têm um forte impacto positivo sobre os rendimentos. Nestes casos, é bastante provável que os trabalhadores mais hábeis sejam selecionados. Assim sendo, ainda há espaço na literatura nacional para estudos sobre o tema que controlem as habilidades individuais, como estudos com dados de painel.

Relevância:

100.00% 100.00%

Publicador:

Resumo:

O Ensino Colaborativo suportado por Computador, conhecido por CSCL (Computer Supported Collaborative Learning), utiliza-se de uma metodologia de ensino em que os alunos trocam idéias sobre assuntos que foram previamente pesquisados. O professor tem a função de moderador onde incentiva e orienta os alunos no processo de aprendizagem através da criação de cenários para motivação dos mesmos, sugerindo artigos e direcionando-os para os pontos mais importantes de cada assunto. Entretanto, para que se possa buscar uma interação apropriada entre o aluno e o ambiente de aprendizagem, se faz necessária à utilização de ferramentas que propiciem um maior controle sobre o sistema, permitindo assim, a monitoração das tarefas executadas pelo usuário, podendo direcioná-lo de forma correta na busca do aprendizado interativo. Busca-se, através deste trabalho, subsidiar o estudo de Lachi, permitindo a monitoração das ações através de um agente de colaboração, nos horários de aulas prédeterminados e fora destes horários, mantendo informações sobre a freqüência das interações realizadas e permitindo uma melhor orientação pelo responsável das atividades a serem executadas pelos alunos, através da captura das conversações realizadas num ambiente de Educação a Distância que utiliza Software Livre, o qual como resultado final proporcionará a análise das conversações com aplicação de um algoritmo de best search pelo professor, das ações dos participantes, no qual foi proposto por Lachi e agora implementamos parcialmente.