989 resultados para Métodos de Pontos Interiores
Resumo:
Neste trabalho apresentamos três métodos distintos provando que S(n) = +1 X k=−1 (4k + 1)−n é um múltiplo racional de n para todos os inteiros n = 1, 2, 3, . . . O primeiro utiliza a teoria das função analíticas e funções geradoras. No segundo reduzimos o problema, via mudança de variável devida a E. Calabi, ao cálculo do volume de certos politopos em Rn enquanto que no terceiro usamos a teoria dos operadores integrais compactos. Cada um dos métodos tem um interesse intrínsico e está sujeito a generalizações para aplicações em novas situações.
Resumo:
A leucoplasia se caracteriza por apresentar, microscopicamente, hiperceratose, acantose ou displasia epitelial. O objetivo do presente trabalho foi avaliar a velocidade de proliferação celular destes distúrbios de maturação epitelial por meio da Técnica de AgNOR. A amostra foi constituída de 50 blocos de parafina distribuídos em 5 grupos de acordo com seu diagnóstico histopatológico em hiperceratose, hiperceratose com acantose, acantose, displasia epitelial e epitélio normal. Para cada grupo foram avaliadas as células da camada basal e suprabasal e a quantificação das AgNORs foi realizada através da média dos pontos de AgNOR por núcleo, da área média dos pontos de AgNOR por núcleo e do percentual médio de células com 1, 2, 3 e 4 ou mais pontos de AgNOR por núcleo. Verificou-se que a média de pontos de AgNOR por núcleo aumentou gradualmente do epitélio normal, hiperceratose com acantose, hiperceratose, acantose até a displasia epitelial. Na comparação em relação à área média dos pontos de AgNOR por núcleo observou-se diferença significativa entre o epitélio normal e os demais grupos. Verificou-se ainda que em todos os grupos há o predomínio de células com 1 AgNOR, e o epitélio normal apresentou valor superior No entanto, a displasia epitelial apresentou maior percentual de células com 4 ou mais AgNORs por núcleo, demonstrando o maior potencial de transformação maligna, uma vez que este parâmetro pode representar um sinal de malignidade. Todavia, os três métodos de quantificação não foram capazes de distinguir os distúrbios de maturação epitelial entre si. A partir dos resultados encontrados, pode-se concluir que os distúrbios de maturação epitelial estudados apresentam ritmo de proliferação celular semelhante e que, dentre eles, a acantose e displasia epitelial têm comportamento de maior risco. Portanto, uma leucoplasia que apresente qualquer um dos distúrbios de maturação epitelial no diagnóstico histopatológico, a conduta clínica deve ser semelhante.
Resumo:
Esta dissertação de mestrado teve como objetivo principal propor um método estruturado suportado for ferramentas gerenciais que permitisse orientar e sistematizar o desenvolvimento de um projeto de pesquisa na disponibilização de uma nova tecnologia para o mercado. O “Projeto Etanol de 2ª Geração”, etanol produzido a partir de biomassas lignocelulósicas, aqui selecionado para estudo de caso, foi extraído da carteira de projetos do Centro de Tecnologia Canavieira (CTC). O método estruturado sugerido é constituído, fundamentalmente, por oito requisitos arranjados de forma cronológica ao longo do desenvolvimento do projeto, que visam auxiliar na prospecção, entendimento, avaliação, valoração, priorização, planejamento e implantação de, por exemplo, uma tecnologia inovadora, otimizando tempo, capital e recursos humanos aplicados. Um dos principais pontos do método proposto refere-se à escolha adequada das ferramentas gerenciais a serem utilizadas em cada requisito (brainstorm, análise de patentes, painel de especialistas, análise SWOT, dentre outras). O êxito na aplicação do método requer o entendimento de todos os (potenciais) efeitos, inclusive os colaterais, no processo como um todo. Ou seja, uma vez que toda ferramenta gerencial apresenta pontos fortes e fracos, o importante é adaptá-las ao sistema de negócio e não vice-versa. A partir do gerenciamento do projeto por um gestor com domínio das ferramentas gerenciais, a escolha destas ocorre de forma dinâmica, onde a cada passo de avaliação novas ferramentas (simples e/ou complexas) podem ser incluídas ou excluídas da matriz do método. Neste trabalho ficou demonstrada a importância de se trabalhar com métodos estruturados e flexíveis, que permitem retroalimentação de informações geradas internamente durante o desenvolvimento da pesquisa ou advindas de fontes externas. O projeto Etanol de 2ª Geração do CTC vem aplicando o método proposto em seu desenvolvimento e obtendo grande êxito em seus resultados, uma vez que a equipe envolvida permanece focada no objetivo principal, obedecendo prazos e recursos inicialmente definidos, com constância do propósito do projeto, sem retrocesso ou recomeço.
Resumo:
Nos dias de hoje existe uma grande demanda e pressão na seleção e definição de prioridades das alternativas de investimento para alavancar o crescimento de longo prazo das empresas. Em paralelo a este cenário, o ambiente global está cada vez mais incerto, o que implica que as escolhas realizadas por estas empresas devem se adaptar aos novos desejos do mercado e, principalmente, devem manter o direcionamento de crescimento almejado pelas mesmas. Neste contexto conturbado, as ferramentas tradicionais utilizadas para a tomada de decisão, para selecionar e definir as prioridades são as análises econômico-financeira representadas pelo Valor Presente Líquido, a Taxa Interna de Retorno e o Payback. Apesar de estes itens serem métodos robustos e consistentes na avaliação de projetos de investimentos, eles focam apenas em um aspecto (o financeiro), e as empresas, atualmente, estão envolvidas em ambientes que precisam de uma abordagem mais ampla, contemplando outras visões e dimensões não presentes nos estudos financeiros. Ou seja, quando se faz uma análise de carteira de projetos alinhada ao planejamento estratégico, é necessário realizar uma abordagem multicritério envolvendo indicadores quantitativos e qualitativos e disponibilizando aos tomadores de decisão uma informação completa e padronizada de todos os projetos, uma vez que estas iniciativas não possuem características homogêneas, pois cada uma apresenta sua respectiva particularidade e, principalmente, está em diferentes estágios de maturidade. Aliado a estes pontos, é perceptível que o processo de seleção e priorização de projetos necessita de uma sistematização que garanta a esta decisão e a este Portfólio uma maior estabilidade e fidedignidade das informações. Neste trabalho, portanto, foi elaborada uma análise multivariada, mais especificamente, a utilização de sistemas de apoio à tomada de decisão. Foram escolhidos outros critérios além do econômico-financeiro, para suportar a seleção e priorização de projetos no atendimento dos objetivos estratégicos da organização e de seus stakeholders.
Resumo:
Neste trabalho analisamos o efeito da contratação de sistemas de ensino para métodos estruturados sobre a evolução e dispersão do desempenho dos alunos das escolas públicas municipais do estado de São Paulo. O objetivo da análise é avaliar se os métodos estruturados de ensino, além de aumentar o desempenho médio dos alunos nos municípios contratantes, também servem com meio para homogeneizar a nota dos alunos em um nível mais elevado. Para este fim utilizamos os dados dos exames de português e matemática dos anos de 2005, 2007 e 2009 da Prova Brasil e, pelo método de estimação de diferenças em diferenças com, efeito fixo por município, avaliamos o incremento no desempenho médio e no desvio padrão do desempenho dos municípios devido à posse de contrato para método estruturado em relação àqueles que não o possuem. Os resultados obtidos revelaram que os métodos estruturados de ensino contribuem para o aumento do desempenho médio dos municípios, e que não foi observado benefício diferenciado a alunos com maior ou menor desempenho inicial. Sobre o efeito da contratação de sistemas de ensino sobre o desvio padrão do desempenho, os resultados não apresentaram robustez suficiente que nos permitissem afirmar que os métodos contribuem para a homogeneização do desempenho.
Resumo:
Este trabalho enfoca os aspectos críticos da fiscalização sanitária das cargas de produtos farmacêuticos nas áreas sob a jurisdição da Gerência de Portos, Aeroportos e Fronteiras (GGPAF) da Agência Nacional de Vigilância Sanitária (ANVISA), durante os processos de desembaraço, na importação ou exportação. Para o alcance dos resultados pretendidos, procedeu-se à análise da legislação sanitária vigente, reuniram-se os dados comerciais de importações e exportações, seguindo-se uma avaliação dos documentos da ANVISA e dos relatos fornecidos pelas Coordenações de diversas Unidades de PAF, sobre inspeções físicas das cargas, bem como dos locais de armazenagem das mesmas. A partir destes dados foi elaborado um roteiro de inspeção, validado através de sua aplicação in loco em Terminais Alfandegados. Obteve-se um diagnóstico dos riscos sanitários aos quais estavam submetidos os produtos farmacêuticos, particularmente nas etapas de transporte e armazenamento temporários em áreas aduaneiras, nas quais a responsabilidade sobre o produto não está bem definida. Este documento permitiu comparar os Regulamentos sanitários disponíveis com as práticas dos técnicos envolvidos na fiscalização dessas áreas, constatando-se altas discrepâncias. Diante disso, concluiu-se pela necessidade de harmonização das ações, dos saberes e das informações originadas de cada Unidade Administrativa de PAF. No intuito de colaborar com a consecução desse propósito, esta dissertação apresentou propostas de padronização dos procedimentos de controle sanitário, voltadas a orientar melhores práticas que conduzam à minimização dos riscos associados à atividade em foco.
Resumo:
Risco operacional precisa ser mensurado pois afeta o valor e a sobrevivência das empresas. Ocupa o foco de pesquisadores, profissionais do sistema financeiro, reguladores e supervisores bancários, no esforço de controlar esse risco. Pesquisamos quatro formas de utilizar a abordagem de distribuição de perdas para a quantificação do risco operacional. Utilizamos um conjunto de dois anos de perdas operacionais de um banco brasileiro de grande porte para fazermos a aplicação e o teste dessa abordagem em quatro variantes. A variante que utiliza exclusivamente distribuições empíricas foi a mais adequada para medir o risco operacional e calcular o capital econômico a partir dos dados disponíveis. Na variante que quantifica o risco operacional ajustando distribuições teóricas às perdas, mostramos que as curvas de Johnson são especialmente flexíveis e de pronta implementação. Também, ajustamos as curvas de Johnson à distribuição de perdas operacionais e à distribuição amostral dos valores de capital econômico. Conhecer a distribuição do capital permite que tenhamos ideia da precisão com que estimamos o capital econômico e abre o caminho para futuros estudos teóricos da distribuição do Var operacional. Encontramos a distribuição dos valores de capital econômico ao invés de calcularmos um valor único de capital. Comparamos dois métodos, utilizados para estabelecer distribuições de valores de capital. Ao conduzirmos a pesquisa, notamos ser possível justificarmos pontos de verificação da auditoria interna sobre a base de dados, a modelagem e a gestão de risco operacional. Com a pesquisa produzimos sugestões para a supervisão e regulação dos bancos.
Resumo:
As áreas de visualização e modelagem baseados em pontos têm sido pesquisadas ativamente na computação gráfica. Pontos com atributos (por exemplo, normais) são geralmente chamados de surfels e existem vários algoritmos para a manipulação e visualização eficiente deles. Um ponto chave para a eficiência de muitos métodos é o uso de estruturas de particionamento do espaço. Geralmente octrees e KD-trees, por utilizarem cortes alinhados com os eixos são preferidas em vez das BSP-trees, mais genéricas. Neste trabalho, apresenta-se uma estrutura chamada Constrained BSP-tree (CBSP-tree), que pode ser vista como uma estrutura intermediárias entre KD-trees e BSP-trees. A CBSP-tree se caracteriza por permitir cortes arbitrários desde que seja satisfeito um critério de validade dos cortes. Esse critério pode ser redefinido de acordo com a aplicação. Isso permite uma aproximação melhor de regões curvas. Apresentam-se algoritmos para construir CBSP-trees, valendo-se da flexibilidade que a estrutura oferece, e para realizar operações booleanas usando uma nova classificação de interior/exterior.
Resumo:
O algoritmo de simulação seqüencial estocástica mais amplamente utilizado é o de simulação seqüencial Gaussiana (ssG). Teoricamente, os métodos estocásticos reproduzem tão bem o espaço de incerteza da VA Z(u) quanto maior for o número L de realizações executadas. Entretanto, às vezes, L precisa ser tão alto que o uso dessa técnica pode se tornar proibitivo. Essa Tese apresenta uma estratégia mais eficiente a ser adotada. O algoritmo de simulação seqüencial Gaussiana foi alterado para se obter um aumento em sua eficiência. A substituição do método de Monte Carlo pela técnica de Latin Hypercube Sampling (LHS), fez com que a caracterização do espaço de incerteza da VA Z(u), para uma dada precisão, fosse alcançado mais rapidamente. A técnica proposta também garante que todo o modelo de incerteza teórico seja amostrado, sobretudo em seus trechos extremos.
Resumo:
Parâmetros renais quantitativos como depuração de Tc99m-MAG3, captação relativa, razão 20 minutos/máximo, razão 20 minutos/2-3 minutos, tempo de atividade máxima e tempo de eliminação decorrido até metade da atividade inicial são freqüentemente obtidos com a cintilografia renal dinâmica com Tc99m-MAG3 e diurético. No entanto, em raras situações estes parâmetros foram testados para avaliar sua utilidade clínica. O objetivo deste estudo foi avaliar se o fornecimento de dados qualitativos (curvas e imagens) e quantitativos a médicos nuclearistas com diferentes graus de experiência e treinamento melhora a acurácia diagnóstica da interpretação da cintilografia renal dinâmica com Tc99m-MAG3 e diurético quando comparada à interpretação do estudo baseada somente nos dados qualitativos. Métodos: Uma equipe de três especialistas em medicina nuclear renal revisou as cintilografias renais completas com Tc99m-MAG3 de 108 pacientes e classificou o estado funcional de cada rim em uma escala de 5 pontos (0 = definitivamente normal, 1 = provavelmente normal, 2 = equívoco, 3 = provavelmente anormal, 4 = definitivamente anormal). Cada rim foi avaliado para a presença ou ausência de obstrução em uma escala similar. O escore final dos especialistas se baseou em unanimidade ou maioria; se houvesse desacordo ≥ 2 pontos entre 2 especialistas, o escore final era determinado por uma leitura de consenso. O escore dos especialistas foi usado como padrão-ouro. Quatro grupos de 3 médicos com diferentes níveis de experiência e treinamento em medicina nuclear revisou cada um os 108 estudos (imagens e curvas) e classificou-os em uma escala de 5 pontos em relação à função e obstrução. Após um período de pelo menos uma semana, eles revisaram as mesmas 108 cintilografias em ordem randomizada com a adição dos dados quantitativos e novamente as classificou de acordo com uma escala de 5 pontos. Os escores dos médicos foram comparados ao padrão-ouro. A concordância dos médicos nuclearistas em relação ao consenso dos especialistas foi calculada através do coeficiente kappa ponderado. Resultados: Duzentos e dez rins foram avaliados. O coeficiente kappa ponderado entre os especialistas mostrou uma concordância excelente para função e obstrução. Para a avaliação de função, o kappa ponderado melhorou com a adição de dados quantitativos em todos os grupos, sendo mais evidente para os grupos 3 e 4. Com e sem dados quantitativos, o grupo mais experiente apresentou um valor de kappa ponderado mais elevado do que os grupos com menos experiência. Para a questão de obstrução, os dados quantitativos não melhoraram o desempenho dos médicos experientes (grupos 1 e 2), ao passo que melhoraram o desempenho geral dos médicos menos experientes (grupos 3 e 4). Conclusão: Dados quantitativos não auxiliaram em casos de diagnósticos complexos como obstrução quando o médico que estava interpretando não tinha experiência com o protocolo e com o uso de variáveis quantitativas. Para a avaliação de obstrução, houve uma variabilidade de 15 a 25% na interpretação, dependendo do médico que estava avaliando a cintilografia. Para os diagnósticos menos complexos, como função, os dados quantitativos melhoraram o desempenho dos médicos. Enfim, a análise do kappa ponderado mostrou, principalmente, que existe ainda uma diferença substancial entre a interpretação dos especialistas e a interpretação dos médicos nuclearistas com maior e menor experiência.
Resumo:
O presente estudo parte de interrogações sobre o intervalo existente entre o projeto e o trajeto em arte. A idéia que persigo diz respeito à percepção do tempo vivido durante o acontecimento da criação. Tais como pontos de passagem, este tempo refere-se ao "tempo em suspenso", o tempo desterritorializado, que não pode ser medido ou espacializado. Por trabalhar com gravura em metal, tanto na prática de atelier, como na orientação de trabalhos no curso de Artes Visuais da Universidade Federal de Pelotas (UFPEL), interesso-me pela possibilidade de desvendar a proximidade ou distância que possa haver entre o que idealizamos e o que realizamos, ou entre a intenção poética e a criação da obra. As idéias aqui contidas foram influenciadas por Henri Bergson, Gilles Deleuse, André Compte-Sponville, Cecília Salles, Sandra Rey, Nilza Haertel, Edith Derdyk, Ernesto Bonato, Jean Lancri, Jorge Larrosa, Tomaz Tadeu e Marly Meira, entre outros. São abordados aspectos das imagens de tempo que foram sendo construídas, conforme autores dos campos da física, da filosofia e da arte; depois, questões relacionadas à gravura em metal e à "criação em processo". E, no final, estabeleço a interseção destas duas primeiras, na tentativa de encontrar pontos de contato possíveis entre a experiência que temos do tempo nos percursos que se prolongam por substâncias incorporais. Há uma conecção entre os três tempos kronos, aiôn e kairós durante os desacertos a que nos submetemos ao aventurar-nos na experiência da criação, o que nos impõe eternos recomeços.
Resumo:
O objetivo do presente trabalho é utilizar modelos econométricos de séries de tempo para previsão do comportamento da inadimplência agregada utilizando um conjunto amplo de informação, através dos métodos FAVAR (Factor-Augmented Vector Autoregressive) de Bernanke, Boivin e Eliasz (2005) e FAVECM (Factor-augmented Error Correction Models) de Baneerjee e Marcellino (2008). A partir disso, foram construídas previsões fora da amostra de modo a comparar a eficácia de projeção dos modelos contra modelos univariados mais simples - ARIMA - modelo auto-regressivo integrado de média móvel e SARIMA - modelo sazonal auto-regressivo integrado de média móvel. Para avaliação da eficácia preditiva foi utilizada a metodologia MCS (Model Confidence Set) de Hansen, Lunde e James (2011) Essa metodologia permite comparar a superioridade de modelos temporais vis-à-vis a outros modelos.
Alinhamento de expectativas e desempenho organizacional: um estudo sobre os métodos ágeis de gestão.
Resumo:
A adoção dos métodos ágeis de gestão do desenvolvimento de software tem sido uma tendência mundial, considerando-se as empresas do setor de tecnologia. Empresas brasileiras atuando neste mercado não estão apartadas deste quadro, uma vez que o objetivo desses métodos é endereçar um cenário comum a qualquer uma dessas organizações: lidar com a dificuldade de modelar adequadamente os problemas usualmente complexos que são objetivo da construção de um software e com a mudança constante de requisitos que esta situação representa, potencializada ainda mais pela dinâmica frenética da disseminação da informação no século XXI, além de modificar um quadro crônico de fracassos e falhas no setor, visando entregar produtos de qualidade aos seus clientes com o máximo de velocidade. Aspectos internos como o aumento de produtividade e a redução de retrabalho também fazem parte dos objetivos de adoção destas metodologias. O presente estudo visa avaliar os aspectos humanos e culturais envolvidos e identificar a convergência entre as expectativas da empresa e dos empregados quando da adoção de métodos ágeis de gestão, a partir de pesquisa de campo que capturou as reações de um grupo de entrevistados à implantação desses métodos na Módulo Security Solutions, empresa brasileira de tecnologia e serviços, após dois anos de uso interno abrangente. Os resultados apontam para o sucesso da implantação, com reação positiva dos empregados, a despeito da necessidade de endereçamento de aspectos humanos para ajuste do modelo e do impacto negativo da cultura local e organizacional terem sido amplamente percebidos.
Resumo:
Neste trabalho, comparamos algumas aplicações obtidas ao se utilizar os conhecimentos subjetivos do investidor para a obtenção de alocações de portfólio ótimas, de acordo com o modelo bayesiano de Black-Litterman e sua generalização feita por Pezier e Meucci. Utilizamos como medida de satisfação do investidor as funções utilidade correspondentes a um investidor disciplinado, isto é, que é puramente averso a risco, e outro que procura risco quando os resultados são favoráveis. Aplicamos o modelo a duas carteiras de ações que compõem o índice Ibovespa, uma que replica a composição do índice e outra composta por pares de posições long&short de ações ordinárias e preferenciais. Para efeito de validação, utilizamos uma análise com dados fora da amostra, dividindo os dados em períodos iguais e revezando o conjunto de treinamento. Como resultado, foi possível concluir que: i) o modelo de Black-Litterman não é suficiente para contornar as soluções de canto quando o investidor não é disciplinado, ao menos para o modelo utilizado; ii) para um investidor disciplinado, o P&L médio obtido pelos modelos de média-variância e de Black-Litterman é consideravelmente superior ao do benchmark para as duas carteiras; iii) o modelo de Black Litterman somente foi superior ao de média-variância quando a visão do investidor previu bem os resultados do mercado.
Resumo:
O objetivo de nossa monografia, portanto, analisar mais de perto o trabalho de Planejamento e Controle na elaboração e implantação de Projetos, notadamente os Projetos Industrias, procurando posicioná-lo na realidade brasileira bem como sugerindo normas e padrões que garantam a sua atuação em moldes de eficiência razoável. Trata dos métodos, variáveis, colocação no organograma e responsabilidades pelo Planejamento e Controle dos Projetos Industriais no Brasil. Aborda as perspectivas de investimentos a longo prazo para o Brasil e para o mundo, analisa as técnicas de planejamento e controle físico e orçamentário existentes, e procura analisar suas reais aplicações e pontos falhos para problemas brasileiros. Contém pesquisa sobre a atuação do Planejamento e Controle no Brasil.