996 resultados para Métodos de pesca
Resumo:
A pesca artesanal, assim como a agricultura, constitui um objeto de estudo complexo, sendo influenciada por determinantes ambientais, culturais, sócio-econômicas e técnico-produtivas. A combinação destes determinantes com as variáveis tempo e espaço, produz, para cada localidade, uma diversidade de formas através das quais os pescadores artesanais buscam interagir com a natureza e extrair dela seu sustento. Estas constatações motivaram uma dissertação de mestrado, realizada em uma tradicional comunidade pesqueira do estuário da Lagoa dos Patos, no estado do Rio Grande do Sul, e cujos principais resultados buscaremos apresentar neste artigo. A utilização de uma abordagem sistêmica, através de uma adaptação conceitual e metodológica das teorias de evolução e diferenciação dos sistemas agrários, permitiu identificar a variabilidade existente nesta comunidade, em termos de tipos de pescadores e sistemas de produção na pesca, por eles praticados. Foi possível, partindo de categorias utilizadas pelos próprios pescadores, identificar cinco diferentes tipos, que interagem, através de relações de trabalho ou em função da estrutura de capital da qual dispõe, na implementação de três sistemas de produção na pesca distintos. Ao assumir esta variabilidade interna ao grupo social, a pesquisa pode revelar a dinâmica de diferenciação social proporcionada pelo impacto desigual de fatores como as políticas sociais e as políticas públicas voltadas ao fomento da produção, em inter-relação com a eficiência técnica e econômica dos diferentes sistemas de produção na pesca.
Resumo:
O algoritmo de simulação seqüencial estocástica mais amplamente utilizado é o de simulação seqüencial Gaussiana (ssG). Teoricamente, os métodos estocásticos reproduzem tão bem o espaço de incerteza da VA Z(u) quanto maior for o número L de realizações executadas. Entretanto, às vezes, L precisa ser tão alto que o uso dessa técnica pode se tornar proibitivo. Essa Tese apresenta uma estratégia mais eficiente a ser adotada. O algoritmo de simulação seqüencial Gaussiana foi alterado para se obter um aumento em sua eficiência. A substituição do método de Monte Carlo pela técnica de Latin Hypercube Sampling (LHS), fez com que a caracterização do espaço de incerteza da VA Z(u), para uma dada precisão, fosse alcançado mais rapidamente. A técnica proposta também garante que todo o modelo de incerteza teórico seja amostrado, sobretudo em seus trechos extremos.
Resumo:
O objetivo do presente trabalho é utilizar modelos econométricos de séries de tempo para previsão do comportamento da inadimplência agregada utilizando um conjunto amplo de informação, através dos métodos FAVAR (Factor-Augmented Vector Autoregressive) de Bernanke, Boivin e Eliasz (2005) e FAVECM (Factor-augmented Error Correction Models) de Baneerjee e Marcellino (2008). A partir disso, foram construídas previsões fora da amostra de modo a comparar a eficácia de projeção dos modelos contra modelos univariados mais simples - ARIMA - modelo auto-regressivo integrado de média móvel e SARIMA - modelo sazonal auto-regressivo integrado de média móvel. Para avaliação da eficácia preditiva foi utilizada a metodologia MCS (Model Confidence Set) de Hansen, Lunde e James (2011) Essa metodologia permite comparar a superioridade de modelos temporais vis-à-vis a outros modelos.
Alinhamento de expectativas e desempenho organizacional: um estudo sobre os métodos ágeis de gestão.
Resumo:
A adoção dos métodos ágeis de gestão do desenvolvimento de software tem sido uma tendência mundial, considerando-se as empresas do setor de tecnologia. Empresas brasileiras atuando neste mercado não estão apartadas deste quadro, uma vez que o objetivo desses métodos é endereçar um cenário comum a qualquer uma dessas organizações: lidar com a dificuldade de modelar adequadamente os problemas usualmente complexos que são objetivo da construção de um software e com a mudança constante de requisitos que esta situação representa, potencializada ainda mais pela dinâmica frenética da disseminação da informação no século XXI, além de modificar um quadro crônico de fracassos e falhas no setor, visando entregar produtos de qualidade aos seus clientes com o máximo de velocidade. Aspectos internos como o aumento de produtividade e a redução de retrabalho também fazem parte dos objetivos de adoção destas metodologias. O presente estudo visa avaliar os aspectos humanos e culturais envolvidos e identificar a convergência entre as expectativas da empresa e dos empregados quando da adoção de métodos ágeis de gestão, a partir de pesquisa de campo que capturou as reações de um grupo de entrevistados à implantação desses métodos na Módulo Security Solutions, empresa brasileira de tecnologia e serviços, após dois anos de uso interno abrangente. Os resultados apontam para o sucesso da implantação, com reação positiva dos empregados, a despeito da necessidade de endereçamento de aspectos humanos para ajuste do modelo e do impacto negativo da cultura local e organizacional terem sido amplamente percebidos.
Resumo:
Neste trabalho, comparamos algumas aplicações obtidas ao se utilizar os conhecimentos subjetivos do investidor para a obtenção de alocações de portfólio ótimas, de acordo com o modelo bayesiano de Black-Litterman e sua generalização feita por Pezier e Meucci. Utilizamos como medida de satisfação do investidor as funções utilidade correspondentes a um investidor disciplinado, isto é, que é puramente averso a risco, e outro que procura risco quando os resultados são favoráveis. Aplicamos o modelo a duas carteiras de ações que compõem o índice Ibovespa, uma que replica a composição do índice e outra composta por pares de posições long&short de ações ordinárias e preferenciais. Para efeito de validação, utilizamos uma análise com dados fora da amostra, dividindo os dados em períodos iguais e revezando o conjunto de treinamento. Como resultado, foi possível concluir que: i) o modelo de Black-Litterman não é suficiente para contornar as soluções de canto quando o investidor não é disciplinado, ao menos para o modelo utilizado; ii) para um investidor disciplinado, o P&L médio obtido pelos modelos de média-variância e de Black-Litterman é consideravelmente superior ao do benchmark para as duas carteiras; iii) o modelo de Black Litterman somente foi superior ao de média-variância quando a visão do investidor previu bem os resultados do mercado.
Resumo:
Introdução: Estenose subglótica (ESG) é definida como o estreitamento da porção inferior da laringe. De etiologia congênita ou adquirida, ela é a segunda causa de estridor e a segunda causa de indicação de traqueostomia na criança. As dificuldades encontradas no manejo da estenose subglótica, principalmente na população pediátrica, justificam o desenvolvimento de modelos experimentais de fácil reprodutibilidade, poucas complicações e baixo custo. O objetivo deste estudo foi comparar dois métodos de indução experimental de estenose subglótica.Material e métodos: No período de janeiro a dezembro de 2003, vinte cães foram selecionados de forma aleatória, e colocados por sorteio em dois grupos: Gp I (n=9) de eletrocoagulação e Gp II (n=11) de infiltração de NaOH 23 %. No Gp I foi realizada eletrocoagulação com auto-interrupção, aplicada em um ponto nos quatro quadrantes da cartilagem cricóide; no Gp II infiltração de 0,2 ml de NaOH 23 % na camada submucosa das porções anterior e posterior da cartilagem cricóide. A cada semana foi feita endoscopia e aferição do calibre da região subglótica por tubos endotraqueais, e nova aplicação de eletrocoagulação ou infiltração NaOH 23 % realizada quando não havia evidência de estenose subglótica. Os animais foram sacrificados após 21 dias da aplicação; aqueles que apresentaram sofrimento respiratório foram sacrificados antes. Resultados : Um animal do Gp I morreu 14 dias após a aplicação, durante o transporte; dois animais do Gp II morreram: um por fístula traqueoesofágica após 7 dias, e outro de causa indeterminada após 5 dias. Estenose subglótica significativa (acima de 51% de obstrução) foi observada em 67% dos animais do Gp I e 64% do Gp II (p=0,99). A mediana de tempo para o surgimento de estenose significativa foi de 21 dias em ambos os grupos, necessitando em média de 2 a 3 aplicações. O tempo necessário para a realização dos procedimentos foi significativamente menor (p<0,01) no Gp I (média 6,36 minutos) do que no Gp II (média de 14,88 minutos). Conclusão : Os dois modelos experimentais de estenose subglótica estudados em cães demonstraram ser efetivos no desenvolvimento de estenose subglótica significativa: ambos métodos estudados ocasionaram estenose no mesmo período de tempo e com mesmo número de aplicações. Entretanto, a eletrocoagulação foi o método de mais rápida execução.
Resumo:
Este estudo apresenta uma análise de como a bioeletricidade sucroenergética pode ter um papel cada vez mais importante na matriz energética brasileira. O estudo mostra o contexto da produção e processamento de cana de açúcar no Brasil, colocando ênfase no processo de geração de energia elétrica. As opções de tecnologia em uso atualmente para a geração na indústria de açúcar e bioenergia são discutidas e, em seguida, apresenta o modelo de ciclo combinado baseado no consumo de gás proveniente da gaseificação de resíduos de cana de açúcar como oportunidade de melhoria de eficiência para o processo. Ao final o estudo apresenta uma avaliação qualitativa de viabilidade buscando demonstrar o que precisa ser feito para se alcançar os resultados com o modelo futuro. Para tal o estudo irá buscar demonstrar os atuais desafios do setor de Bioenergia na indústria de cana de açúcar e projetará ações em diferentes atores desse mercado para a viabilização de adoção de novas tecnologias.
Resumo:
O trabalho foi conduzido na EEA/UFRGS em 2003. O objetivo foi avaliar a eficiência do disco medidor de forragem, do bastão graduado e do medidor de capacitância em predizer a massa de forragem de azevém bem como o de avaliar as diferenças nas variáveis morfogênicas (taxa de elongação de folhas, taxa de surgimento de folhas, tempo de vida da folha) e estruturais da pastagem (numero de folhas verdes, comprimento de folhas e densidade de perfilhos) pela técnica de perfilhos marcados em função dos tratamentos adotados (intensidades e métodos de pastejo). Para determinar a eficiência dos instrumentos foram realizados dois experimentos: o experimento 1 avaliandose a eficiência do disco, bastão e medidor de capacitância em predizer a massa de forragem da pastagem na fase de estabelecimento num delineamento completamente casualizado com 32 repetições e três tratamentos e o experimento 2 avaliando-se a eficiência do disco medidor e do bastão graduado como preditores da massa de forragem sob lotação rotacionada em duas intensidades de pastejo (baixa e moderada) definidas por ofertas de forragem representando, respectivamente, 2,5 ou 5,0 vezes o potencial de consumo dos cordeiros num delineamento em blocos casualizados em arranjo fatorial com quatro repetições. Para determinar as variáveis morfogênicas, estruturais e o fluxo de tecidos os tratamentos foram duas intensidades (baixa e moderada) e dois métodos de pastejo (pastejo com lotação contínua e rotacionada). No experimento 1 o bastão graduado apresentou a melhor correlação com a massa de forragem (r2=0,65). No 2 as melhores correlações foram obtidas quando avaliadas as faixas de pós-pastejo para o disco medidor (r2=0,47) e as de pré-pastejo para o bastão graduado (r2=0,36). Para as variáveis morfogênicas e estruturais as intensidades de pastejo foram responsáveis por diferenças na taxa de elongação de folhas (intensidade baixa resultou em maior taxa de elongação) e nas características estruturais (intensidade baixa resultou em menor densidade de perfilhos, maior comprimento e número de folhas vivas). Os métodos de pastejo influenciaram as características morfogênicas (lotação contínua resultou em maior taxa de elongação de folhas, maior taxa de surgimento e tempo de vida das folhas no ciclo de observação I) e estruturais (lotação contínua resultou em maior densidade de perfilhos); bem como foi obtida interação com as intensidades e com os ciclos de avaliação. O fluxo de crescimento (favorecido por lotação rotacionada a baixa intensidade) e de senescência (favorecido por lotação contínua a baixa intensidade) foram afetados pelos tratamentos, enquanto que o fluxo de consumo não foi alterado pelos tratamentos.
Resumo:
Esta dissertação tem por objetivo analisar um campo ainda incipiente no Brasil, mais largamente difundido no exterior. Não se trata de obra meramente acadêmica, mas que reflete a experiência do autor em empresas nas quais teve oportunidade de trabalhar. A intenção do Autor é no sentido de alertar para a importância do tema no Brasil, onde mais e mais as empresas estio, aumentando o seu porte através de um crescimento, às vezes lento, às vezes rápido, porem sempre contínuo. O Autor teve inclusive a oportunidade de analisar uma empresa que duplicou o número de seus funcionários e operários em três anos, tendo a sua produção, em toneladas, quintuplicada. Esta empresa estava se vendo em sérias dificuldades, pois o poder decisório continuava nas mãos do mesmo reduzido número de executivos que tinha antes de sua rápida expansão e que, evidente mente, não tinha agora mais condições de administrar a empresa como o vinham fazendo. Era necessário que uma nova estrutura de comando com delegação de autoridade fosse estabelecida e novas estratégias fossem adotadas para que se evitasse um rápido colapso da administração da empresa. Tendo em mente os aspectos já citados, foi que o Autor julgou (oportuno fazer uma análise sucinta das organizações dentro das mais variadas empresas, detendo-se mais aprofundada mente existentes te na descentralização em seus mais diferentes aspectos.
Resumo:
Este trabalho tem por objetivo estudar os processos de mudanças nos ambientes interno e externo de RECURSOS HUMANOS (sub-divididos em Unidades de Análise - UNAN - especificas, sob os aspectos de Organização, Métodos, Informação e Sistemas ou, simplesmente, O & M -I & S, provocadas pela INFORMÁTICA, na esfera empresarial brasileira. Especificamente, foi realizada uma pesquisa de caráter exploratório junto ao principal responsável pela área de RECURSOS HUMANOS das empresas, que devería, por sua vez, e se quisesse, solicitar a colaboração íntima do profissional responsável pelas políticas de INFORMÁTICA. Em alguns casos os pontos de vista desses profissionais e a visão perceptiva do futuro foram tão conflitantes que resultaram em dois posicionamentos para uma mesma empresa, enriquecendo ainda mais a pesquisa. Em outros momentos o pesquisador atuou como entrevistador, obtendo as colocações reais dos respondentes, fator de uma maior confiabilidade para as réplicas obtidas. O ponto de partida desta tese é o pressuposto de que existiria uma relação intima e uma vinculação subjacente, entre, por um lado as teorias administrativas em geral com as suas inúmeras variáveis (em particular, a sistêmica) e, de outro lado, a epistemologia cibernética, ambas procurando tratar da Organização e dos Métodos de análise e engenharia de manipulação das Informações e estruturação dos Sistemas (OMIS) de uma forma disciplinada e bem pensada. Em resumo, considerando de uma forma ingênua, trata-se do estudo do comportamental versus o instrumental e o que este ocasionou naquele, num período de 20 anos (1980/2000), nos ambientes interno (Ai) e externo (Ae) da Empresa. Os resultados obtidos, bem como os pedidos de profissionais que desejavam participar da pesquisa por dela terem conhecimento através de terceiros, indicaram a crescente consideração por esta forma de estudo, o interesse pelo assunto e, principalmente, o reconhecimento do papel de uma Universidade na criação, desenvolvimento e manutenção de uma consciência comunitária, onde a Empresa desempenha um papel de extrema importância para uma melhor qualidade de vida dos RECURSOS HUMANOS em geral, através da INFORMÁTICA.
Resumo:
O presente trabalho objetivou estudar as principais variáveis analíticas associadas aos métodos espectrofotométricos de quantificação do teor de taninos utilizando caseína e pó-de-pele, os reagentes de Folin-Denis e Folin-Ciocalteu, bem como a avaliação de diferentes tipos de PVPP (Divergan® F, Divergan® RS, Kollidon® CL e PVPP-P6755) na substituição dos substratos protéicos. Para tanto, dois métodos de análise, um espectrofotométrico e outro por CLAE foram desenvolvidos, utilizando os polifenóis catequina, ácido tânico, ácido gálico e pirogalol como substâncias de referência e rutina como flavonóide modelo. Para maiores inferências uma solução extrativa de folhas secas de Psidium guajava L também foi quantificada. A análise comparativa assinalou o uso vantajoso do reagente de Folin-Ciocalteu, em relação ao reagente de Folin-Denis. Em termos de reprodutibilidade, a caseína grau técnico (GT) mostrou-se superior à caseína purificada, embora essa última possua maior afinidade pelos polifenóis testados. Contudo, as análises por UV-VIS e por CLAE em comprimentos de onda de 280m e 352 nm, demonstraram que tanto a caseína GT quanto o pó-de-pele não são seletivos para complexar taninos, de acordo com as normas do ICH. Tanto o pó-de-pele quanto a caseína GT foram capazes de complexar polifenóis e rutina de maneira inespecífica. Isso foi evidenciado quando misturas de um único polifenol e rutina ou a fração flavonoídica de P. guajava foram testadas. A capacidade de complexação de polifenóis e rutina por parte da PVPP foi avaliada por UV-VIS, DSC e CLAE. Os melhores resultados foram observados para PVPP-P6755, no entanto com restrições. De maneira similar a caseína GT e pó-depele a PVPP-P6755 foram capazes de complexar de maneira inespecífica rutina e outros flavonóides do extrato de P. guajava. Uma validação plena para o caso específico de folhas de P. guajava é questionável. No entanto, o método baseado na utilização de PVPP mostrou-se passível de padronização utilizando 500,0 mg de pó de droga, 2,0 mL de reagente de Folin-Ciocalteu, tempo de leitura 30 min após adição desse reagente e quantificação em 760 nm. Sob essas condições, a análise comparativa demonstrou que 50,0 mg de PVPP foram, em termos analíticos, equivalentes a 100,0 mg de pó-de-pele ou a 750 mg de caseína GT.
Resumo:
Trata dos recentes avanços da microeletrônica e da informática enfatizando a questão dos impactos sobre as formas de produção não somente no setor industrial mas também no setor terciário. Enfatiza a questão do desemprego tecnológico analisando as profissões e ocupações que serão mais atingidas e, detendo-se nas implicações gestionais e organizacionais para as empresas. Propõe medidas que poderão atenuar as eventuais implicações sociais principalmente no que se refere aos níveis de desemprego.
Resumo:
Outliers são observações que parecem ser inconsistentes com as demais. Também chamadas de valores atípicos, extremos ou aberrantes, estas inconsistências podem ser causadas por mudanças de política ou crises econômicas, ondas inesperadas de frio ou calor, erros de medida ou digitação, entre outras. Outliers não são necessariamente valores incorretos, mas, quando provenientes de erros de medida ou digitação, podem distorcer os resultados de uma análise e levar o pesquisador à conclusões equivocadas. O objetivo deste trabalho é estudar e comparar diferentes métodos para detecção de anormalidades em séries de preços do Índice de Preços ao Consumidor (IPC), calculado pelo Instituto Brasileiro de Economia (IBRE) da Fundação Getulio Vargas (FGV). O IPC mede a variação dos preços de um conjunto fixo de bens e serviços componentes de despesas habituais das famílias com nível de renda situado entre 1 e 33 salários mínimos mensais e é usado principalmente como um índice de referência para avaliação do poder de compra do consumidor. Além do método utilizado atualmente no IBRE pelos analistas de preços, os métodos considerados neste estudo são: variações do Método do IBRE, Método do Boxplot, Método do Boxplot SIQR, Método do Boxplot Ajustado, Método de Cercas Resistentes, Método do Quartil, do Quartil Modificado, Método do Desvio Mediano Absoluto e Algoritmo de Tukey. Tais métodos foram aplicados em dados pertencentes aos municípios Rio de Janeiro e São Paulo. Para que se possa analisar o desempenho de cada método, é necessário conhecer os verdadeiros valores extremos antecipadamente. Portanto, neste trabalho, tal análise foi feita assumindo que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers. O Método do IBRE é bastante correlacionado com os preços alterados ou descartados pelos analistas. Sendo assim, a suposição de que os preços alterados ou descartados pelos analistas são os verdadeiros valores extremos pode influenciar os resultados, fazendo com que o mesmo seja favorecido em comparação com os demais métodos. No entanto, desta forma, é possível computar duas medidas através das quais os métodos são avaliados. A primeira é a porcentagem de acerto do método, que informa a proporção de verdadeiros outliers detectados. A segunda é o número de falsos positivos produzidos pelo método, que informa quantos valores precisaram ser sinalizados para um verdadeiro outlier ser detectado. Quanto maior for a proporção de acerto gerada pelo método e menor for a quantidade de falsos positivos produzidos pelo mesmo, melhor é o desempenho do método. Sendo assim, foi possível construir um ranking referente ao desempenho dos métodos, identificando o melhor dentre os analisados. Para o município do Rio de Janeiro, algumas das variações do Método do IBRE apresentaram desempenhos iguais ou superiores ao do método original. Já para o município de São Paulo, o Método do IBRE apresentou o melhor desempenho. Em trabalhos futuros, espera-se testar os métodos em dados obtidos por simulação ou que constituam bases largamente utilizadas na literatura, de forma que a suposição de que os preços descartados ou alterados pelos analistas no processo de crítica são os verdadeiros outliers não interfira nos resultados.
Resumo:
Aula inaugural do curso Análise Crítica dos Métodos de Exploração da Personalidade - 6/6/49 - Colaboração ISOP/DPE
Resumo:
Em pé da fotografia: Emilio Mira y López