886 resultados para Gerenciamento
Resumo:
O sistema produtivo orgânico está sujeito a uma série de variáveis, as quais afetam o processo decisório do gestor, pois indicam características e probabilidade de resultados, como em qualquer sistema. A necessidade de uma fundamentação informacional confiável e organizada, para auxiliar o gerenciamento da produção orgânica, foi o fato gerador dessa pesquisa. Assim, por exemplo, para definir qual variedade convém plantar, é preciso conhecer o solo, o clima, a capacidade de liberação de nutrientes, etc, a fim de escolher a varietal mais adequada às condições específicas do local e obter a melhor produtividade possível. A produção orgânica busca interagir, convivendo com a heterogeneidade encontrada no ecossistema, evitando fortes impactos ambientais, embora aumentando o número de variáveis, se comparado à produção industrial. Através do método ABC – custeio baseado em atividades, foram planificadas e analisadas as atividades do sistema produtivo de alface orgânica na empresa Porto Verde, responsável por produção e comercialização de verduras orgânicas. Para implantar o método ABC no sistema estudado, foi desenvolvido e testado um modelo de aplicação do ABC na produção de alface orgânica, de modo que em casos semelhantes possa ser repetida a pesquisa. A análise dos dados permitiu quantificar comparações entre cultivos, onde conhecimento dos defeitos e vantagens de cada um auxiliam o gestor no processo decisório. Comparativamente é possível identificar aprimoramentos a serem feitos nos mais diversos cultivos, que possuem suas características distintas. Isto se explica, não apenas no nível operacional de remediar situações ainda durante o cultivo, como também no nível estratégico, subsidiando o planejamento de futuros cultivos.
Resumo:
As rápidas mudanças que se desenvolvem no planeta varrem conceitos antigos, alteram estratégias de empresas e mudam o comportamento de governos e nações. O agronegócio não fica incólume neste intenso processo. As políticas agrícolas e a estrutura do setor passam por ajustes e revisões. Dentro desta linha de pensamento, um cenário que se torna cada vez mais evidente é a competição entre cadeias, além da competição entre empresas de forma isolada. Nesta perspectiva, o gerenciamento da cadeia de abastecimento pode ser considerado um importante vetor na competitividade da cadeia, no momento em que preconiza a customização das atividades que agregam valor, integrando cada vez mais clientes e fornecedores. Mas para a efetividade deste gerenciamento, a gestão da informação ao longo da cadeia assume importância maior ainda, em relação ao seu uso nas empresas de forma isolada. Dentro do ambiente de mudanças do agronegócio, após a abertura da economia brasileira de 1990, a cadeia de abastecimento do arroz vem passando por intensas transformações para se manter competitiva. Dentre estas, surge o arroz orgânico como forma de segmentar mercados consumidores através da diferenciação, e o que é mais importante, a adição de valor ao produto, desde a produção rural. Por se tratar o arroz orgânico de um produto diferenciado, pressupôs-se que a cadeia de abastecimento para este produto, apresente diferenças da cadeia de abastecimento para o arroz commodity. Considerando isto é que se objetivou com esta pesquisa “analisar o processamento da informação na cadeia de abastecimento do arroz com transações de dois tipos de produtos: arroz commodity e arroz orgânico”. O método científico utilizado foi o estudo de caso, onde foram levantados dados e fatos dos agentes que formam os elos da cadeia de abastecimento do arroz commodity e do arroz orgânico, para subsidiar as análises necessárias a atingir o objetivo proposto. As principais conclusões a que se chegou são: quanto à cadeia, esta apresenta diferenças que vão desde as relacionadas aos produtos, até as transações realizadas entre os agentes da cadeia. Quanto à informação ao longo da cadeia, o agente de produção do arroz commodity e do arroz orgânico, é o elo que menos utiliza informações sistematizadas em suas decisões. Também, que existem diferenças nos fluxos de informações ao longo da cadeia de abastecimento quando ocorrem transações com arroz commodity e quando com arroz orgânico. Estas diferenças vão desde as informações trocadas, o conteúdo e objetivos com que são trocadas, o sentido e o envolvimento dos departamentos dos agentes da cadeia. Pode-se acrescentar ainda, que em transações com arroz orgânico houve maior diálogo entre os agentes ao longo da cadeia, que foi mais representativo no segmento Produção x Beneficiamento.
Resumo:
A enorme complexidade dos sistemas ecológicos tem sido uma grande barreira para a compreensão e o gerenciamento da problemática ambiental. Neste sentido a modelagem matemática é uma valiosa ferramenta, devido a sua capacidade de organizar as informações disponíveis sobre estes sistemas e de fazer previsões a seu respeito para diferentes condições. Desta forma a análise de sistemas naturais vem sendo abordada de diferentes maneiras, sendo que nas últimas décadas a teoria de ecossistemas expandiu-se e ramos específicos, que permitem seguir e predizer a evolução de ecossistemas, foram formulados. Um destes enfoques, conhecido como análise do fluxo de insumo-produto, pode ser utilizado para explicar o funcionamento e estrutura dos subsistemas de um ecossistema através da descrição dos fluxos de matéria ou energia. A análise do fluxo de insumo-produto pode ser representada através de dois modelos: o modelo determinístico ou o modelo estocástico, tendo sua origem em estudos de caso com o objetivo de analisar a econômica norte-americana, sendo uma extensão prática da teoria clássica de interdependência geral. Este trabalho faz uma abordagem sintética da evolução desta análise, avaliando dados teóricos e principalmente dados referentes à Lagoa Itapeva. A análise de input-output (determinística e estocástica) com o propósito de obter informações no que diz respeito aos fluxos (matéria e energia), é bastante simples; sendo que os modelos determinísticos se prestam melhor para traçar um panorama global e para obter projeções para as variáveis já os modelos estocásticos são mais complexos, mas provêem uma descrição mais acurada. Na Lagoa Itapeva os processos determinísticos demonstraram um baixo índice de ciclagem do carbono entre os três compartimentos em estudo e o fluxo preferencial na normalização corresponde ao compartimento dos produtores primários, isto decorre de não existir loop nos compartimentos em estudo e também não existir fluxos em dois sentidos. Em relação à avaliação estocástica foram observadas uma baixa relação no sentido espacial superfície-meio-fundo da lagoa, e uma boa distribuição espacial norte-centro-sul. Quanto à distribuição temporal, foi constatada uma baixa concordância entre os dados analisados e os dados reais quanto das análises realizadas em intervalos de tempo pequeno (horas) e uma boa concordância nas medidas feitas quando o intervalo foi significativo (meses). Também em relação à Lagoa Itapeva, foi verificado nas análises estocásticas, utilizando-se operadores espaciais, que como a dinâmica biológica nem sempre é linear, os organismos não podem acompanhar imediatamente e perfeitamente as mudanças do ambiente, resultando em tempos de residência de matéria significativamente baixo. Além da análise dos fluxos ligados a este ecossistema lagunar, foram desenvolvidas técnicas de correção e adaptação de dados referentes à amostragem ocorrida na Lagoa durante um ano de campanha. Assim, propõe-se uma nova perspectiva no uso desta metodologia de forma simples e de fácil manipulação matemática.
Resumo:
Pesquisas de ordem ambiental têm sido objeto de estudos de diversas áreas do conhecimento. No âmbito da Engenharia Civil, o foco tem se voltado no gerenciamento e redução do volume de resíduos gerados, bem como no aprimoramento dos materiais e sistemas utilizados. Conseqüência direta disso são os recentes avanços no desenvolvimento de novos materiais e no aproveitamento de resíduos de outros setores produtivos como subprodutos de valor agregado na cadeia produtiva da construção civil. Desse modo, estudar as possibilidades de reciclagem de resíduos em materiais de construção adquire uma nova dimensão, que extrapola a intenção pura e simples de desenvolver um novo produto. Dentro de uma abordagem holística, deve-se pensar em trabalhos que envolvam reciclagem como contribuintes na criação de subprodutos com valor agregado, bem como suscitadores de discussões mais amplas de desenvolvimento sustentado. O setor de blocos de concreto para pavimentação, por sua vez, tem demonstrado um grande potencial de expansão de mercado, tanto na pavimentação de vias de tráfego intenso como também na urbanização de cidades como elementos de paisagismo. Feitas tais considerações, este trabalho objetiva avaliar as potencialidades de utilização de escórias granuladas de fundição, resíduos da produção de ferro fundido, aqui denominadas EGF, na fabricação de blocos intertravados de concreto para pavimentação A partir de contextualização do tema, procura-se avaliar as vantagens da EGF nestes blocos, como substituição parcial do cimento e também como substituição parcial do agregado miúdo. Para ambas as situações, foram realizados ensaios de resistência mecânica à compressão, desgaste por abrasão e absorção de água, em concretos com diferentes teores de substituição (10, 30 e 50%). O teor de 10% de EGF como substituição parcial de cimento foi o que mais se aproximou do desempenho dos blocos referência. Os resultados também demonstram que não há diferenças significativas entre os blocos referência e o blocos com EGF, quanto ao desgaste por abrasão e absorção de água.
Resumo:
Notificações enviadas por dispositivos são essenciais para ajudar no gerenciamento de redes de computadores, pois podem alertar sobre, por exemplo, situações anormais ou indesejadas. Porém, em muitos casos, múltiplas notificações relacionadas ao mesmo problema podem ser recebidas por uma estação gerente. Isso faz com que a visualização das notificações se torne confusa. Uma forma possível de diminuir a quantidade de notificações recebidas é através da sua correlação. Atualmente, os Web Services têm sido um importante tema de pesquisa na área de gerenciamento de redes de computadores. Contudo, não há pesquisas propriamente relacionadas à notificação de eventos usando Web Services. O protocolo SNMP, que é a solução mais aceita e utilizada, possui suporte à notificação de eventos através de suas mensagens trap. Porém, esse suporte é limitado e, raramente, consegue cruzar domínios administrativos diferentes. Unindo a necessidade de correlação com a necessidade de cruzar domínios administrativos diferentes, uma arquitetura de correlação de notificações baseada em Web Services e políticas é apresentada. As políticas são utilizadas no trabalho, como mecanismo para definição das regras de correlação de notificações. A arquitetura proposta e sua implementação são apresentadas, permitindo a investigação do uso de Web Services como ferramenta no gerenciamento de redes, considerando o caso específico de suporte a notificações. Este estudo complementa as investigações em andamento do Grupo de Pesquisa de Redes da Universidade Federal do Rio Grande do Sul, mostrando aspectos dosWeb Services no gerenciamento de redes, que eram desconhecidos no campo de notificações, além de mostrar o gerenciamento baseado em políticas aplicado a notificações, assunto também inexplorado até o momento.
Resumo:
Na simulação heterogênea de um sistema eletrônico complexo, um mesmo modelo pode ser composto por partes distintas em relação às tecnologias ou linguagens utilizadas na sua descrição, níveis de abstração, ou pela combinação de partes de software e de hardware (escopo da co-simulação). No uso de modelos heterogêneos, a construção de uma ponte eficaz entre diferentes simuladores, em conjunto com a solução de problemas tais como sincronização e tradução de dados, são alguns dos principais desafios. No contexto do projeto de sistemas embarcados, a validação desses sistemas via co-simulação está sujeita a estes desafios na medida em que um mesmo modelo de representação precisa suportar a cooperação consistente entre partes de hardware e de software. Estes problemas tornam-se mais significativos quando abordados em ambientes distribuídos, o que aumenta a complexidade dos mecanismos que gerenciam os ítens necessários à correta cooperação entre partes diferentes. Contudo, embora existam abordagens e ferramentas voltadas para o tratamento de modelos heterogêneos, inclusive em ambientes distribuídos, ainda persiste uma gama de limitações causadas pela distribuição e heterogeneidade de simuladores. Por exemplo, restrições quanto à variedade de tecnologias (ou linguagens) utilizadas na descrição das partes de um modelo, flexibilidade para o reuso de partes existentes, ou em tarefas de gerenciamento de sincronização/dados/interface/distribuição. Além disso, em geral, nas soluções existentes para simulação heterogênea, alterações são necessárias sobre as partes do modelo, limitando a preservação de sua integridade. Esta é uma característica indesejável, por exemplo, no reuso de componentes IP (Intellectual Property) Neste contexto, esta tese apresenta o DCB (Distributed Co-simulation Backbone), cujo propósito geral é o suporte à execução distribuída dos modelos heterogêneos. Para isso, são observados de modo integrado quatro fatores básicos: a distribuição física; a independência dos componentes (partes); o encapsulamento das estratégias de gerenciamento de tempo, de dados e de comunicação; e a sincronização híbrida. Em geral, as soluções existentes valorizam um fator em detrimento dos demais, dependendo dos propósitos envolvidos e sua variação em relação ao grau de especificidade (soluções proprietárias ou restritas a um escopo de aplicações). O Tangram, também discutido nesta tese em termos de requisitos, é uma proposta de ambiente para projeto de modelos heterogêneos distribuídos. No contexto da especificação do DCB, esta proposta tem como objetivo geral agregar num mesmo ambiente funcionalidades de apoio para a busca e catalogação de componentes, seguidas do suporte à construção e à execução distribuída de modelos heterogêneos via DCB. À luz dos princípios de generalidade e flexibilidade da arquitetura do DCB, o Tangram visa permitir que o projetista reduza seu envolvimento com detalhes relacionados ao provimento de condições necessárias à cooperação entre componentes heterogêneos. No escopo desta tese, ênfase foi dada à co-simulação de sistemas embarcados, ênfase esta observada também na construção do protótipo do Tangram/DCB, e nos estudos de caso. Contudo, a estrutura do DCB é apropriada para qualquer domínio onde a simulação possa ser utilizada como instrumento de validação, entre outros propósitos.
Resumo:
Esta dissertação apresenta duas implementações de algoritmos para gerência dinâmica de memória em software, as quais foram desenvolvidas utilizando como alvo uma plataforma embarcada Java. Uma vez que a plataforma utilizada pertence a uma metodologia para geração semi-automática de hardware e software para sistemas embarcados, os dois algoritmos implementados foram projetados para serem integrados ao contexto desta mesma metodologia. Como forma de estabelecer comparações detalhadas entre as duas implementações desenvolvidas, foram realizadas diversas estimativas em desempenho, uso de memória, potência e energia para cada implementação, utilizando para isto duas versões existentes da plataforma adotada. Através da análise dos resultados obtidos, observou-se que um dos algoritmos desenvolvidos obteve um desempenho melhor para realização da gerência dinâmica da memória. Em contrapartida, o outro algoritmo possui características de projeto que possibilitam sua utilização com aplicações de tempo-real. De um modo geral, os custos adicionais resultantes da utilização do algoritmo de tempo-real, em relação ao outro algoritmo também implementado, são de aproximadamente 2% para a potência média dissipada, 16% para o número de ciclos executados, 18% para a energia consumida e 10% sobre a quantidade de total memória utilizada. Isto mostra que o custo extra necessário para utilização do algoritmo de tempo real é razoavelmente baixo se comparado aos benefícios proporcionados pela sua utilização. Como impactos finais produzidos por este trabalho, obteve-se um acréscimo de 35% sobre o número total de instruções suportadas pela arquitetura utilizada. Adicionalmente, 12% das instruções que já existiam no conjunto desta arquitetura foram modificadas para se adaptarem aos novos mecanismos implementados. Com isto, o conjunto atual da arquitetura passa a corresponder a 44% do total de instruções existentes na arquitetura da máquina virtual Java. Por último, além das estimativas desenvolvidas, foram também realizadas algumas sugestões para melhoria global dos algoritmos implementados. Em síntese, alguns pontos cobertos por estas sugestões incluem: a migração de elementos do processamento do escopo dinâmico para o estático, o desenvolvimento de mecanismos escaláveis para compactação de memória em tempo-real, a integração de escalonadores ao processo de gerência de memória e a extensão do processo de geração semi-automática de software e hardware para sistemas embarcados.
Resumo:
Os sistemas operacionais de tempo real, assim como os sistemas embarcados, estão inseridos no desenvolvimento de projetos de automação industrial segmentado em diversas áreas de pesquisa como, por exemplo, robótica, telecomunicações, e barramentos industriais. As aplicações de sistemas modernos de controle e automação necessitam de alta confiabilidade, velocidade de comunicação, além de, determinismo temporal. Sistemas operacionais de tempo real (SOTR) têm-se apresentado como uma solução confiável quando aplicadas em sistemas que se fundamentam no cumprimento de requisitos temporais. Além disso, o desempenho computacional é totalmente dependente da capacidade operacional da unidade de processamento. Em um sistema monoprocessado, parte da capacidade computacional da unidade de processamento é utilizada em atividades administrativas, como por exemplo, processos de chaveamento e salvamento de contexto. Em decorrência disto, surge a sobrecarga computacional como fator preponderante para o desempenho do sistema. Este trabalho tem por objetivo, analisar e fornecer uma arquitetura alternativa para realizar o co-processamento de tarefas em uma plataforma IBM-PC, aumentando a capacidade computacional do microprocessador principal. No presente trabalho, a plataforma de coprocessamento realiza a execução do algoritmo de escalonamento do sistema operacional, desta forma distribuiu-se o gerenciamento temporal das tarefas entre a plataforma IBM-PC e a unidade de co-processamento.
Resumo:
Esta pesquisa apresenta uma proposta de construção de um índice de sustentabilidade ambiental para a agroindústria paulista da cana-de-açúcar – ISAAC. Tal proposta é motivada pela busca de sustentabilidade para a cadeia produtiva da cana, cujo energético principal, o etanol, é exigido, mundialmente, como biocombustível produzido em base socioeconômica responsável, proveniente de fonte renovável, ambientalmente limpa e redutora de emissões de Gases de Efeito Estufa – GEE. Este estudo faz um diagnóstico da produção de cana, açúcar e álcool, bem como da bioenergia gerada no Estado de São Paulo, em 16 Unidades de Gerenciamento de Recursos Hídricos – UGRHI[s], nas quais a agroindústria da cana-de-açúcar é significativa economicamente. O trabalho também aponta o ranking de produção das 164 usinas que operaram na safra 2007/2008, indica a ocupação do solo e a vegetação nativa nos 462 municípios canavieiros e inventaria, dentre outros, a geração de resíduos, as emissões de GEE, o uso da água, os postos de trabalho e o valor da produção. A pesquisa projeta ainda uma estimativa de custos para se mitigar, no horizonte de 30 anos, algumas externalidades negativas e realiza uma breve conceituação de responsabilidade socioambiental e desenvolvimento sustentável. Para o desenvolvimento do índice, empregou-se a metodologia Pressão-Estado-Resposta – PER, da Organização de Cooperação e Desenvolvimento Econômicos – OCDE, a partir da escolha de um conjunto de 30 indicadores, avalizados por meio de seis atributos de seleção e dez princípios norteadores. Na valoração ponderada dos subíndices, foram considerados o atual nível de conhecimento, a percepção acerca da sustentabilidade e as características próprias das UGRHI[s] estudadas. O conjunto dos indicadores e subíndices assim construído é apresentado à consulta das partes interessadas, via Câmara Ambiental Sucroalcooleira, da Companhia Ambiental do Estado de São Paulo – CETESB e Comitês de Bacias Hidrográficas – CBH, em razão da forma participativa de atuação destes colegiados. Vislumbra-se que a CETESB implemente institucionalmente o ISAAC, por meio de relatório de sustentabilidade, o qual poderá se consolidar como instrumento eficaz da gestão ambiental da agroindústria da cana-de-açúcar.
Resumo:
Esta dissertação apresenta alguns critérios para avaliação de ameaças e risco geotécnico aplicados à estabilidade de taludes. Inicialmente apresenta-se uma visão geral dos problemas envolvidos com a análise de risco geotécnico, a importância da análise probabilística e a sua comparação com a determinística, e as opções de gerenciamento descritas na literatura. Estas análises envolvem conceitos de probabilidade, estatística, geotecnia, geologia, meio ambiente e legislação, além do interesse público e defesa civil. Assim, são definidos os conceitos estatísticos envolvidos nessa área multidisciplinar, como variabilidade espacial, coeficiente de correlação entre os parâmetros de entrada do modelo, distância de autocorrelação, escala de flutuação e incertezas (de parâmetros, humanas e dos modelos). Os métodos probabilísticos de cálculo do fator de segurança, a probabilidade de ruptura e o índice de confiabilidade são revisados. Utilizou-se o método de Monte Carlo nas análises através do uso de um programa comercial. O método tem sido adotado por diversos pesquisadores por ser direto, eficiente para problemas matematicamente complexos e não ter a complexidade matemática de outros métodos. A metodologia de análise de ameaças e risco geotécnico foi aplicada a um talude modelo, similar aos taludes de colúvio de basalto encontrados nas partes inferiores da Escarpa dos Aparados da Serra em Santa Catarina Os resultados obtidos, a partir de dados experimentais disponíveis, foram o fator de segurança determinístico mínimo (1,20) e o fator de segurança médio obtido pelo método de Monte Carlo (1,205), índice de confiabilidade de 2,64 e probabilidade de ruptura de 0,41%. Foi discutida também a aceitabilidade do fator de segurança médio da análise probabilística, comparando-se os resultados obtidos com valores aceitos em obras similares.
Resumo:
A eficiência dos portos e o desenvolvimento econômico do país estão intimamente relacionados. O aumento da eficiência se traduz na redução de custos e na melhoria do nível dos serviços portuários e, com isso, a economia, como um todo, se fortalece. Muito se fala sobre a infra-estrutura portuária, suas possibilidades e limitações. Com o processo de globalização, os portos de todos os países passam por profundas reformas, a fim de compatibilizá-los com a nova ordem política e econômica. No Brasil, com a aprovação da Lei n 8.630, a chamada Lei de Modernização dos Portos, estabelece-se um novo marco regulatório para o setor portuário que até então era regulamentado por um conjunto de regras jurídicas datado dos anos 30. O Órgão Gestor de Mão-de-Obra (OGMO) criado pela citada lei tem como tarefa administrar a força de trabalho avulsa, mas seu desempenho é considerado insatisfatório. Promover uma mudança organizacional se impõe e, para isso, faz-se mister fazer uso de um modelo integrado para diagnosticar e promover a transformação organizacional. O objetivo deste trabalho é verificar o emprego do modelo da Congruência de Nadler- Tushman, como ferramenta para o diagnóstico e gerenciamento da transformação organizacional que se fizer necessária. As referências bibliográficas fornecem a base teórica que orientam a argumentação utilizada na seleção do modelo em questão. A análise das respostas dos questionários encaminhados aos operadores portuários e empregados do OGMO-RJ, e os dados coligidos a partir das observações assistemáticas conduzidas pelo autor são a base do diagnóstico organizacional. O modelo de Nadler-Tushman se adéqua perfeitamente a realizar o que qualquer modelo se propõe: simplificar e representar a realidade.
Resumo:
A procura por uma forma de, fácil e rapidamente, retirar conhecimento de um especialista e transmiti-lo a outros profissionais tem levado ao desenvolvimento de diversas pesquisas que unem metodologias de raciocínio com o atendimento a problemas. Os ambientes corporativos demonstram sua eficiência baseados na maneira como desenvolvem suas tarefas. Cada vez mais, buscam alternativas que os ajudem a responder por atividades e problemas ocorridos, as quais podem significar um processo de manutenção que pode decidir o nível de eficiência e competência da organização. Estas alternativas compreendem ferramentas ou profissionais, os quais transformaram-se em especialistas por adquirirem conhecimento e capacidade em prover soluções a problemas. As características de um problema podem ser alteradas sob alguns aspectos mas, mesmo em domínios mais complexos como a gerência de redes de computadores ou a medicina, algo que foi aprendido sempre tem utilidade em novas situações. Este é o tipo de conhecimento e raciocínio próprios de um especialista, ou seja, o uso de suas experiências. Raciocínio Baseado em Casos (case-based reasoning) é uma metodologia de inteligência artificial que apresenta a forma de raciocínio semelhante à de um especialista, onde o raciocínio é obtido por um processo de recordar um exemplo concreto. Porém, as pesquisas que a utilizam, geralmente, desenvolvem trabalhos para um específico tipo de domínio de problema, o que resulta em alterações de programação, caso estes desejem ser adaptados para outros domínios. Este procedimento, muitas vezes, é tido como difícil e trabalhoso Baseando-se neste contexto, o presente trabalho apresenta um mecanismo que fornece inclusões de conhecimento de especialistas, independente do tipo de domínio de problema, e raciocínio sobre este conhecimento, de forma a auxiliar usuários com problemas referentes ao domínio cadastrado. Para tanto, a implementação baseou-se na união de sistemas de registros de problemas (trouble ticket systems) com raciocínio baseado em casos, propondo uma forma auxiliar no conhecimento e busca de soluções em domínios de problema. O estudo, além de fazer uso das metodologias citadas acima, usa o domínio de gerenciamento de segurança em redes de computadores para exercitar suas funções, provar sua utilidade e dificuldades. Assim, um estudo mais detalhado sobre os problemas que cercam o domínio de segurança em redes TCP/IP foi desenvolvido.
Resumo:
O presente trabalho tem por objetivo o estudo da aplicação do contrato de gestão hospitalar, implantado no Estado de São Paulo, sob a égide da Lei Complementar n. 846, de 04.06.98, tomando-se por base os seguintes aspectos: a) planejamento; b) convocação e processamento dos planos operacionais dos interessados; c) dispensa de licitação para contratação direta com organização social de saúde; d) contrato de gestão em si, suas cláusulas; e) controle público, interno e externo, f) características gerais dessa contratação; g) publicações dos atos; h) assessoria jurídica. Ao final, apresentamos as nossas sugestões para aprimoramento do modelo legal estudado, como, por exemplo, a adoção de medidas visando a ampliação de possíveis interessados na celebração do contrato, a concentração de prazos, sua padronização, e dilatação, além do estabelecimento de exigências relativas às condições econômicas e, especialmente, técnicas, de forma a se assegurar a boa execução contratual, tudo, no fundo, com o desiderato acadêmico de alguma forma contribuir com a Administração Pública brasileira.
Resumo:
Com o aprofundamento da crise financeira internacional e a conseqüente valorização do dólar no segundo semestre de 2008, diversas empresas não financeiras registraram enormes perdas financeiras com operações de derivativos cambiais. Este fato aponta para uma dinâmica de financeirização de empresas produtivas, que tentam aumentar seus ganhos especulando no mercado futuro. Serão analisados os problemas relacionados a derivativos cambiais enfrentados pelas empresas Aracruz Celulose e Sadia no segundo semestre de 2008, e apresentar um histórico das operações de hedge realizadas por essas empresas entre os anos de 1999 e 2008, a fim de esclarecer se houve uma mudança na política de gerenciamento de risco cambial dessas empresas. Identificamos que houve uma drástica ruptura na política histórica de hedge dessas empresas no ano de 2008 e o uso do derivativo Target Forward foi o principal agente causador desta ruptura.
Resumo:
O conceito de confiança tem sido introduzido em estudos empíricos sobre marketing no Brasil a partir do referencial teórico adotado principalmente nos Estados Unidos e Europa. A presente dissertação examina a confiança, tanto no vendedor como na empresa, e o valor e a qualidade do produto percebidos pelos clientes como fatores que afetam a satisfação em compras de valor, tal como a compra de um imóvel residencial na planta. O estudo se baseia nos artigos de Santos (2001), sobre o impacto do gerenciamento de reclamações sobre confiança e lealdade do consumidor, e de Doney e Cannon (1997) sobre a confiança no relacionamento entre empresas e seus vendedores. O estudo empírico trata de um levantamento de corte transversal, no qual foram testadas hipóteses específicas para examinar as relações entre as variáveis, em um processo de pesquisa formal e estruturado, com uma amostra de 270 clientes. Os dados foram coletados a partir da base de clientes de duas empresas brasileiras fortes nos segmentos em que atuam, uma corretora de imóveis e outra incorporadora/construtora, ambas sediadas na cidade de São Paulo. A análise dos dados foi feita com base no Modelo de Equações Estruturais (SEM), através do software Lisrel 8. Os resultados indicam que há confiança no corretor que está realizando a venda do imóvel, sendo que a satisfação com o corretor influencia esta confiança. No entanto, experiências anteriores com corretores de imóveis e características do corretor que realizou a venda não têm impacto sobre a confiança no corretor. Detectou-se também, que o valor do produto e a confiança na construtora percebidos pelo cliente têm influencia sobre a satisfação com a compra, mas não a qualidade percebida. Este estudo dá subsídios a futuras pesquisas sobre a confiança em compras de valor. São discutidas as limitações da pesquisa e as implicações de seus resultados para a gestão de marketing no Brasil.