997 resultados para Método multicritério de análise de decisão
Resumo:
O açaí é um dos principais alimentos da população paraense e de maior consumo per capita em 2010. A venda de açaí em Belém é realizada por diversas unidades que operam no mercado varejista. O objetivo deste trabalho foi identificar os segmentos de mercado: quitandas, microempreendedores e supermercados, a partir da análise de um conjunto de variáveis que definem as decisões dos consumidores de açaí. Utilizou-se do método stepwise da análise discriminante múltipla para estimar as funções discriminantes. Os resultados mostram que o segmento identificado com maior precisão foi o de quitandas, com 100%, seguido do segmento de supermercado com 96,5% dos casos classificados corretamente, e o segmento de microempreendedores, com 90,9%, apresentou a menor precisão no enquadramento dos consumidores. O modelo estimado apresentou elevada significância no processo de estimação, uma vez que as funções, incluindo as variáveis quantidade de açaí, renda dos consumidores, preço do açaí, qualidade do açaí, preço do peixe e preço da farinha, classificaram corretamente 95,6% dos elementos originais.
Resumo:
RESUMO A biomassa polidispersa tem como uma de suas principais características as variações das dimensões e dos formatos de suas partículas. Os métodos de determinação do diâmetro médio por peneiramento, amplamente utilizados devido a sua relativa simplicidade e baixo custo, quando aplicados a materiais heterogêneos, como a biomassa polidispersa, podem levar a resultados equivocados. Assim, com o objetivo de obter resultados mais precisos, foram avaliados três métodos de determinação do diâmetro médio de partículas de biomassa polidispersa, baseados na técnica de fracionamento por peneiramento mecânico: um de forma analítica (Diâmetro de Sauter) e outros dois por meio de análise gráfica das funções de distribuição das partículas (Função de Densidade de Distribuição Mássica e Função Cumulativa/Aumentativa de Distribuição). O método baseado na análise gráfica da função da distribuição da densidade mássica (FDDM) foi o mais eficiente para a análise do bagaço de cana, pois permitiu identificar as diferentes populações existentes e identificar com clareza as dimensões características, mostrando assim ser uma poderosa ferramenta para a análise granulométrica de biomassas polidispersas.
Resumo:
O grupo das mulheres trabalhadoras do sexo (MTS) é reconhecido como uma populaçãode maior risco à infecção pelo HIV, tanto pela prevalência elevada, como por suavulnerabilidade social como pelos fatores relacionados à própria atividade profissional. Porém, arealização de estudos nos subgrupos de maior risco ao HIV mediante estratégias convencionaisde amostragem é, em geral, problemática por essas populações possuírem pequena magnitudeem termos populacionais e por estarem vinculados a comportamentos estigmatizados ouatividades ilegais. Em 1997, foi proposto um método de amostragem probabilística parapopulações de difícil acesso denominado Respondent-Driven Sampling (RDS). O método éconsiderado como uma variante da amostragem em cadeia e possibilita a estimação estatísticados parâmetros de interesse. Na literatura internacional, para análise de dados coletados porRDS, muitos autores têm utilizado técnicas estatísticas multivariadas tradicionais, sem levar emconta a estrutura de dependência das observações, presente nos dados coletados por RDS.A presente tese tem por objetivo contribuir para suprir informações sobre as práticas derisco relacionadas ao HIV entre as mulheres trabalhadoras do sexo (MTS) com odesenvolvimento de método estatístico para análise de dados coletados com o método deamostragem RDS. Com tal finalidade, foram utilizadas as informações coletadas na PesquisaCorrente da Saúde realizada em dez cidades brasileiras, com 2.523 MTS recrutadas por RDS,entre os anos de 2008 e 2009. O questionário foi autopreenchido e incluiu módulos sobrecaracterísticas da atividade profissional, práticas sexuais, uso de drogas, testes periódicos deHIV, e acesso aos serviços de saúde.Primeiramente, foram descritos alguns pressupostos do RDS e todas as etapas deimplantação da pesquisa. Em seguida, foram propostos métodos de análise multivariada, considerando o RDS como um desenho complexo de amostragem.
Resumo:
A análise de um algoritmo tem por finalidade melhorar, quando possível, seu desempenho e dar condições de poder optar pelo melhor, dentre os algoritmos existentes, para resolver o mesmo problema. O cálculo da complexidade de algoritmos é muito dependente da classe dos algoritmos analisados. O cálculo depende da função tamanho e das operações fundamentais. Alguns aspectos do cálculo da complexidade, entretanto, não dependem do tipo de problema que o algoritmo resolve, mas somente das estruturas que o compõem, podendo, desta maneira, ser generalizados. Com base neste princípio, surgiu um método para o cálculo da complexidade de algoritmos no pior caso. Neste método foi definido que cada estrutura algorítmica possui uma equação de complexidade associada. Esse método propiciou a análise automática da complexidade de algoritmos. A análise automática de algoritmos tem como principal objetivo tornar o processo de cálculo da complexidade mais acessível. A união da metodologia para o pior caso, associada com a idéia da análise automática de programas, serviu de motivação para o desenvolvimento do protótipo de sistema ANAC, que é uma ferramenta para análise automática da complexidade de algoritmos não recursivos. O objetivo deste trabalho é implementar esta metodologia de cálculo de complexidade de algoritmos no pior caso, com a utilização de técnicas de construção de compiladores para que este sistema possa analisar algoritmos gerando como resultado final a complexidade do algoritmo dada em ordens assintóticas.
Resumo:
Propõe-se com a presente dissertação conduzir estudo exploratório sobre a razoabilidade de um método de apoio à tomada de decisão para ordenar os controles internos contábeis, utilizando critérios estabelecidos pelo regulador do mercado de capitais dos Estados Unidos, quantificados por meio de uma escala baseada em operadores da lógica fuzzy. O método foi elaborado com base em pesquisa bibliográfica sobre o controle interno contábil e sua relação com os controles internos em geral; a exigência de constituição, avaliação e divulgação da avaliação dos controles internos contábeis pela legislação do mercado de capitais americano ao longo das últimas três décadas; o conceito de matriz de risco; os métodos de apoio à decisão; e os fundamentos da lógica fuzzy. A metodologia proposta foi adaptada à realidade da entidade objeto do estudo de caso e aplicada sobre 2,4 mil controles. Uma amostra de aproximadamente 14% desse universo foi analisada e permitiu concluir pela razoabilidade do método proposto, que será utilizado pela entidade estudada como parte de seu processo de avaliação dos controles internos contábeis.
Resumo:
Estudo da teoria das opções reais que incorpora à avaliação de projetos de investimentos, as opções de crescimento e as flexibilidades gerenciais que surgem devido às incertezas existentes no ambiente no qual as empresas operam. Aborda os métodos tradicionais de avaliação de investimentos baseados no fluxo de caixa descontado (FCD), destaca as suas vantagens e limitações; a teoria das opções reais mostrando suas vantagens em relação aos métodos tradicionais; e um estudo de caso. Tem como objetivo principal apresentar que a teoria das opções reais é viável e complementar aos métodos tradicionais de avaliação de investimentos na indústria de mineração de ferro, com a abordagem da avaliação em tempo discreto. Este método permite especificar o problema de análise e resolvê-lo com o uso de programa de software de análise de decisão disponível no mercado de forma mais simples e mais intuitivo que os métodos tradicionais de avaliação de opções reais e permite maior flexibilidade na modelagem do problema de avaliação. A modelagem das opções reais do projeto baseia-se no uso de árvore de decisão binomial para modelar o processo estocástico. A avaliação é realizada em quatro passos de acordo com a metodologia proposta por Copeland e Antikarov (2001) e Brandão e Dyer (2005): modelagem do ativo básico, ou seja, cálculo do valor presente líquido sem flexibilidade; criação do modelo binomial utilizando o software computacional para modelar o ativo básico, computando as probabilidades neutras a risco; modelagem das opções reais no projeto; e resolução da árvore binomial, ou seja, análise das opções reais. Os resultados apresentados demonstram que é possível implementar a abordagem da avaliação de opções reais em projetos de investimentos na indústria de mineração de ferro.
Resumo:
Esta dissertação foi desenvolvida no curso de Administração de instituição de ensino superior, na cidade de Belém, com o intuito de compreender as principais variáveis que envolvem a avaliação institucional docente. Motivada principalmente pela preocupação com a qualidade do ensino atualmente ofertado em todo o país e buscando entender de que forma a avaliação institucional docente pode servir como fonte de informações para a tomada de decisão por parte da gestão dos cursos. Para tanto, foi feita uma pesquisa descritiva do tipo estudo de caso com abordagem quantitativa, por meio de entrevistas estruturadas, aplicadas aos alunos e a seus respectivos professores Administradores, com a utilização do método estatístico multivariado Análise de Correspondência para confrontação dos dados coletados. Com o suporte teórico do referencial selecionado de diversos autores, os resultados possibilitaram identificar, a partir do cruzamento da avaliação institucional docente realizada pelos alunos e da auto-avaliação respondida pelos professores, seis perguntas passíveis de conclusões, gerando informações importantes para a coordenação do curso em questão. Portanto, avaliar os caminhos percorridos visa uma pequena contribuição na transformação do processo de avaliação docente em processo cada vez mais respeitado e atualizado de acordo com o novo contexto e exigências organizacionais, governamentais e mercadológicas, na medida em que corresponde à importante fonte de medição e informações para tomadas de decisão por parte dos gestores universitários.
Resumo:
Este artigo examina a construção do discurso sobre os alimentos geneticamente modificados a partir da ótica de um importante periódico nacional, a revista Veja. O quadro teórico baseia-se no debate sobre os alimentos geneticamente modificados no campo dos estudos organizacionais, no qual se verificou negligência sobre o papel da mídia como formadora de opinião e sua capacidade em influenciar os leitores. A contribuição para este campo está em verificar o papel da mídia na construção de um tema – os alimentos transgênicos. O método utilizado é a análise crítica do discurso. Os resultados da análise crítica do discurso da Veja sugerem que os alimentos transgênicos são construídos pelo discurso através de duas perspectivas, uma técnica e outra moral e o domínio discursivo é articulado de forma a promover a aceitação dos alimentos transgênicos como opção viável e benéfica de consumo, sem agredir a saúde humana e o meio ambiente.
Resumo:
Na análise funcional de imagens do cérebro podem utilizar-se diferentes métodos na identificação de zonas de activação. Tem havido uma evolução desde o método de correlação [19], para outros métodos [9] [14] até o método baseado no modelo linear generalizado que é mais comum ser utilizado hoje e que levou ao pacote de software SPM [15]. Deve-se principalmente à versatilidade que o método tem em realizar testes com diferentes objectivos. Têm sido publicados alguns estudos comparativos. Poucos têm sido quantitativos [20] e quando o são, o número de métodos testados é reduzido[22]. Há muitos estudos comparativos do ponto de vista da estatística envolvida (da matemática) mas que têm em geral apenas ns académicos. Um objectivo deste estudo é comparar os resultados obtidos por diferentes métodos. É de particular interesse averiguar o comportamento de cada método na fronteira do local de activação. As diferenças serão avaliadas numericamente para os seguintes métodos clássicos: t de Student, coeficiente de correlação e o modelo linear generalizado. Três novos métodos são também propostos - o método de picos de Fourier, o método de sobreposição e o método de amplitude. O segundo pode ser aplicado para o melhoramento dos métodos de t de Student, coe ciente de correlação e modelo linear generalizado. Ele pode no entanto, também manter-se como um método de análise independente. A influência exercida em cada método pelos parâmetros pertinentes é também medida. É adoptado um conjunto de dados clínicos que está amplamente estudado e documentado. Desta forma elimina-se a possibilidade dos resultados obtidos serem interpretados como sendo específicos do caso em estudo. Há situações em que a influência do método utilizado na identificação das áreas de activação de imagens funcionais do cérebro é crucial. Tal acontece, por exemplo, quando um tumor desenvolve-se perto de uma zona de activação responsável por uma função importante . Para o cirurgião tornase indispensável avaliar se existe alguma sobreposição. A escolha de um dos métodos disponíveis poderá ter infuência sobre a decisão final. Se o método escolhido for mais conservador, pode verificar-se sobreposição e eliminar-se a possibilidade de cirurgia. Porém, se o método for mais restritivo a decisão final pode ser favorável à cirurgia. Artigos recentes têm suportado a ideia de que a ressonância magnética funcional é de facto muito útil no processo de decisão pré-operatório [12].O segundo objectivo do estudo é então avaliar a sobreposição entre um volume de activação e o volume do tumor. Os programas informáticos de análise funcional disponíveis são variados em vários aspectos: na plataforma em que funcionam (macintosh, linux, windows ou outras), na linguagem em que foram desenvolvidos (e.g. c+motif, c+matlab, matlab, etc.) no tratamento inicial dos dados (antes da aplicação do método de análise), no formato das imagens e no(s) método(s) de análise escolhido(s). Este facto di culta qualquer tentativa de comparação. À partida esta poderá apenas ser qualitativa. Uma comparação quantitativa implicaria a necessidade de ocorrerem três factos: o utilizador tem acesso ao código do programa, sabe programar nas diferentes linguagens e tem licença de utilização de software comercial (e.g. matlab). Sendo assim foi decidido adoptar uma estratégia unificadora. Ou seja, criar um novo programa desenvolvido numa linguagem independente da plataforma, que não utilize software comercial e que permita aplicar (e comparar quantitativamente) diferentes métodos de análise funcional. A linguagem escolhida foi o JAVA. O programa desenvolvido no âmbito desta tese chama-se Cérebro.
Resumo:
VARELA, M.L. et al. Otimização de uma metodologia para análise mineralógica racional de argilominerais. Cerâmica, São Paulo, n. 51, p. 387-391, 2005.
Resumo:
A lógica fuzzy admite infinitos valores lógicos intermediários entre o falso e o verdadeiro. Com esse princípio, foi elaborado neste trabalho um sistema baseado em regras fuzzy, que indicam o índice de massa corporal de animais ruminantes com objetivo de obter o melhor momento para o abate. O sistema fuzzy desenvolvido teve como entradas as variáveis massa e altura, e a saída um novo índice de massa corporal, denominado Índice de Massa Corporal Fuzzy (IMC Fuzzy), que poderá servir como um sistema de detecção do momento de abate de bovinos, comparando-os entre si através das variáveis linguísticas )Muito BaixaM, ,BaixaB, ,MédiaM, ,AltaA e Muito AltaM. Para a demonstração e aplicação da utilização deste sistema fuzzy, foi feita uma análise de 147 vacas da raça Nelore, determinando os valores do IMC Fuzzy para cada animal e indicando a situação de massa corpórea de todo o rebanho. A validação realizada do sistema foi baseado em uma análise estatística, utilizando o coeficiente de correlação de Pearson 0,923, representando alta correlação positiva e indicando que o método proposto está adequado. Desta forma, o presente método possibilita a avaliação do rebanho, comparando cada animal do rebanho com seus pares do grupo, fornecendo desta forma um método quantitativo de tomada de decisão para o pecuarista. Também é possível concluir que o presente trabalho estabeleceu um método computacional baseado na lógica fuzzy capaz de imitar parte do raciocínio humano e interpretar o índice de massa corporal de qualquer tipo de espécie bovina e em qualquer região do País.
Resumo:
Industrial development experienced by Brazil from the 1950s, changed the concentration of population in the country. The process of development of domestic industry, concentrated in urban areas, crowded growing portion of the population.The Southeast region during the first stage of industrialization driven by the state, with the implementation of Plan goals, captained the major industrial projects implemented in the period and became the main industrial center of the country.In the decade from 1960 to 1980 the state action was marked by numerous regional development projects, softening the industrial concentration and Brazilian investment redirected to the Northeast.The second National Development Plan implemented in the 1970s led to major investments Northeast.This period marked the widespread urban growth and institutionalization of the first metropolitan areas in Brazil.The change of this developmental process is altered with the fiscal and financial crisis of the state in the 1980s and 1990s and spending cuts aimed at national development, reorienting the economy to liberal policies of economic liberalization and reduction of activity in the economy.Industrial policy was relegated to local development plans from the 1990s to the federating units fitting the wide use of tax incentives, the "war tax" to the continued industrialization process.In this context of the national economy work seeks to analyze the industrial setting in the metropolitan areas of Fortaleza, Recife and Salvador between 1995 and 2010.Although the metropolitan areas of Fortaleza, Recife and Salvador are the main urban centers of the Northeast, responsible for the advancement of industrial development, reconfigurations occurred between 1995 and 2010 by changing the level of industrial specialization built by regional division of labor in these regions.The work will be carried out by the method of descriptive analysis of the literature review on regional and urban development.Constitute quantitative method as the secondary data analysis of formal employment from the Annual Social Information (RAIS) Ministry of Labour and Employment (MTE).Using data RAIS / MTE analyzes the industrial specialization index using the Locational Quotient (LQ).Thus, it is assumed as a parameter analysis QL> 1, when the region has become specialized in a particular sector or QL <1, when the region does not have expertise in industrial sector analyzed.The conclusion of study indicates that there was in these metropolitan areas maintained the same bias hub.Fiscal policies, the states, was not successful in diversifying the productive structure and the Northeast region itself.This result is demonstrated by the need and dependence on state investments in the region to promote development.Industrial policies of recent years have been positive to meet the objectives of employment generation, but there must be specific policies for better diversification of production, in addition to integrating the economy of the Northeast sector and regionally
Resumo:
A new method to perform TCP/IP fingerprinting is proposed. TCP/IP fingerprinting is the process of identify a remote machine through a TCP/IP based computer network. This method has many applications related to network security. Both intrusion and defence procedures may use this process to achieve their objectives. There are many known methods that perform this process in favorable conditions. However, nowadays there are many adversities that reduce the identification performance. This work aims the creation of a new OS fingerprinting tool that bypass these actual problems. The proposed method is based on the use of attractors reconstruction and neural networks to characterize and classify pseudo-random numbers generators
Resumo:
Esta pesquisa de natureza documental e etnográfica se insere no campo da Linguística Aplicada, tendo por objeto de estudo o Manual do Professor, que acompanha o livro didático de Língua Portuguesa, e por objetivo geral (re)conhecer os aspectos sociorretóricos do gênero Manual do Professor. O interesse desta tese está concentrado no uso situado desse gênero, a partir do qual se observam seus aspectos sociorretóricos, a saber: o que está posto no produto, o ambiente de interação onde é encontrado e como é visto por seus usuários em potencial. Em um primeiro momento, produzimos um quadro epistemológico que nos permitiu, dentre outros reparos, (i) compreender gênero textual como ação retórica tipificada baseada numa situação retórica recorrente e (ii) obter um panorama dos programas de governo voltados para a avaliação de coletâneas didáticas, nos quais encontramos aspectos indispensáveis a um Manual do Professor. Os aportes teóricos adotados neste estudo referem-se à concepção sociorretórica dos estudos de gênero textual à luz, sobretudo, de Johns et al. (2006), Bazerman (2011) e Miller (2011). Em um segundo momento, sob o viés da abordagem sociorretórica, procuramos definir o Manual do Professor como gênero textual e apresentamos os aspectos retóricos encontrados nas amostras que analisamos, considerando a organização constitutiva, o contexto de uso desse gênero e as percepções de seus usuários autores e professores. A geração de dados deu-se inicialmente a partir da seleção de três exemplares de Manuais de coletâneas didáticas adotadas no IFRN; em seguida, no sentido de reconhecer as percepções dos usuários desse gênero, realizamos grupo focal com professores e entrevistamos o coautor de uma das coletâneas. Para análise dos dados, elegemos o método etnográfico de análise de gêneros postulado por Reiff (apud JOHNS et al, 2006), que nos permitiu analisar o objeto de estudo em contextos autênticos de uso do gênero. Nossos resultados mostram que o Manual do Professor está inserido num sistema de gêneros e no sistema de atividades profissionais de domínio do professor e não se limita apenas a explicar como está organizado o livro didático do aluno. Outros sete propósitos foram observados, dentre os quais se encontram: possibilitar ao docente uma reflexão sobre a sua prática de ensino e sugerir caminhos para a melhoria do processo de ensino-aprendizagem. Acreditamos que esta pesquisa poderá estimular professores, em relação à importância (e não obrigatoriedade) de consultas periódicas aos Manuais; autores, no que se refere a estabelecer uma interlocução mais pessoalizada com seus leitores em potencial e no sentido de esclarecer ainda mais as facetas do livro didático; e editoras, sobretudo no que tange a recursos de editoração, para que o Manual do Professor se torne mais atrativo
Resumo:
JUSTIFICATIVA E OBJETIVOS: As alterações cardiovasculares associadas aos bloqueios do neuroeixo apresentam interesse pela frequência com que ocorrem e porque algumas delas podem ser consideradas efeitos fisiológicos desencadeados pelo bloqueio do sistema nervoso simpático. O objetivo desta pesquisa foi avaliar as complicações cardiovasculares intraoperatórias e os fatores preditores associados aos bloqueios do neuroeixo em pacientes com idades > 18 anos submetidos a procedimentos não obstétricos, em um período de 18 anos, em hospital universitário de atendimento terciário-HCFMB-UNESP. MÉTODO: Foi realizada análise retrospectiva das seguintes complicações: hipertensão arterial, hipotensão arterial, bradicardia sinusal e taquicardia sinusal. Tais complicações foram correlacionadas com técnica anestésica, estado físico (ASA), idade, sexo e comorbidades pré-operatórias. Para a análise estatística, foram utilizadas o teste de Tukey para comparações entre proporções e regressão logística. RESULTADOS: Foram avaliados 32.554 pacientes submetidos a bloqueios do neuroeixo e houve 4.109 citações de hipotensão arterial, 1.107 de bradicardia sinusal, 601 de taquicardia sinusal e 466 de hipertensão arterial no período intraoperatório. Hipotensão foi mais frequente nos pacientes submetidos à anestesia subaracnoidea contínua (29,4%, OR = 2,39), com idades > 61 anos e do sexo feminino (OR = 1,27). CONCLUSÕES: Hipotensão e bradicardia intraoperatórias foram complicações mais frequentes, sendo que a hipotensão arterial esteve relacionada à técnica anestésica (ASC), faixa etária elevada e sexo feminino. Taquicardia e hipertensão arterial podem não ter sido diretamente relacionadas aos bloqueios do neuroeixo.