1000 resultados para Sistemas de medição


Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas redes sem fios tradicionais, os nós recetores permitem apenas uma única receção individual. Contudo com o aumento do número de dispositivos móveis nas redes sem fios, tem-se explorado novas técnicas que permitem múltiplas receções em simultâneo (Multipacket Reception) (MPR), tais como CDMA, OFDMA e MU-MIMO. Estas técnicas permitem melhorar o desempenho dos sistemas, aumentando também os débitos de transferências de dados. Apesar deste desenvolvimento, os protocolos de controlo de acesso ao meio não estão desenhados para suportar múltiplas receções, admitindo ainda os pressupostos originais. Isto faz com que se estejam a desperdiçar recursos do canal, não aproveitando ao máximo as capacidades que os sistemas MPR têm para oferecer. Nesta dissertação estuda-se a condição de receção com sucesso de múltiplas transmissões. Isto permite obter um modelo para caracterizar o número de transmissões recebidas com sucesso tendo em conta o número de nós que transmitem em simultâneo e modelando também a probabilidade de receção com sucesso individual. A partir desta caracterização, é verificado o desempenho de cinco protocolos MAC diferentes com suporte para múltiplas receções em simultâneo. Realizando uma avaliação integrada (tendo em conta o nível físico e o nível MAC) para os diferentes protocolos estudados, realiza-se uma avaliação comparativa relativamente ao débito atingido por cada um deles. Propõem-se por fim dois novos protocolos MAC com suporte para múltiplas transmissões em simultâneo para que se faça um melhor aproveitamento das capacidades permitidas pelos sistemas MPR, atingindo também melhores débitos.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O planeamento das redes de distribuição de energia elétrica é considerado de extrema importância para o desenvolvimento de infraestruturas de elevada fiabilidade. A este nível, as empresas elétricas estão a ser confrontadas com objetivos contraditórios de clientes que requerem maior qualidade de serviço e dos que querem preços de energia mais baixos. Para competir neste contexto, é importante que as empresas elétricas estabeleçam um balanço entre os custos de investimento em equipamentos para aumentar a fiabilidade e o nível de fiabilidade alcançado com esse investimento. Este trabalho propõe resolver este problema de planeamento considerando a sua natureza multiobjectivo. Assim, foram desenvolvidos modelos matemáticos para a integração das diversas variáveis minimizadas associadas à fiabilidade, deste problema de otimização multiobjectivo. Nas últimas décadas, a crescente penetração da geração distribuída (GD) tem representado uma série de desafios técnicos para as redes de distribuição que foram concebidas de uma forma tradicional. Assim, propuseram-se modelos para a integração da GD no problema da fiabilidade deste tipo de redes. Neste contexto, também foi proposta uma abordagem para a análise da fiabilidade sob o ponto de vista da redução de gases de efeito de estufa. Neste momento, o problema da fiabilidade começa também a ser abordado quanto às interrupções momentâneas. Assim, considerou-se adicionalmente uma abordagem em que se consideram os sistemas de armazenamento de energia. Para a otimização das várias abordagens desenvolveram-se algoritmos de otimização do tipo evolutivo. Para testar as abordagens e modelos propostos, obtiveram-se resultados a partir de testes realizados sobre uma rede de distribuição real.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os sistemas de comunicação sem fios são sistemas de difusão por natureza. Devido a essa sua natureza, um dos problemas inerentes à mesma deve-se à segurança e ao secretismo, pois se o canal é partilhado a informação facilmente é obtida por um utilizador não autorizado, ao contrário dos sistemas de comunicação com fios. Tradicionalmente, a introdução de segurança em sistemas de comunicação, resulta na encriptação da informação, resultante de protocolos de encriptação. No entanto, a segurança através da criptografia baseia-se na premissa de que o utilizador não autorizado tem uma capacidade de processamento limitada, pois senão poderia simplesmente tentar todas as combinações possíveis e obter a chave de encriptação. Como a capacidade de processamento tem crescido exponencialmente, este tipo de sistemas tem se tornado cada vez mais complexos para não se tornarem obsoletos. A introdução de segurança na camada física torna-se então uma opção apelativa pois pode servir como um complemento, visto que os sistemas de criptografia funcionam em camadas superiores independentes da camada fisica, apresentando assim uma abordagem multi-camada em termos de segurança. Tipicamente as técnicas de segurança no nível físico podem se agrupar em 2 tipos: técnicas que se baseiam em códigos, ou técnicas que exploram variações temporais e espaciais do canal. As primeiras diminuem a eficiência espectral do sistema, e as segundas apresentam bons resultados em ambientes dinâmicos, mas em ambientes estáticos não são muito promissores. Há também a necessidade de aumentar as taxas de transmissão nos próximos sistemas de comunicação. Devido a estes requisitos, uma das tecnologias propostas para a nova geração de comunicações, é uma tecnologia baseada numa arquitectura Multiple-Input-Multiple-Output(MIMO). Esta tecnologia é promissora e consegue atingir taxas de transferências que correspondem aos requisitos propostos. Apresenta-se assim uma nova técnica de segurança no nível físico, que explora as caracteristicas físicas do sistema, como um complemento a outras medidas de segurança em camadas mais altas. Esta técnica não provoca diminuição da eficiência espectral e é independente do canal, o que tenta solucionar os problemas das restantes técnicas já existentes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO - A definição e medição da produção são questões centrais para a administração hospitalar. A produção hospitalar, quando se consideram os casos tratados, baseia-se em dois aspectos: a definição de sistemas de classificação de doentes como metodologia para identificar produtos e a criação de índices de casemix para se compararem esses mesmos produtos. Para a sua definição e implementação podem ser consideradas características relacionadas com a complexidade dos casos (atributo da oferta) ou com a sua gravidade (atributo da procura), ou ainda características mistas. Por sua vez, a análise do perfil e da política de admissões dos hospitais adquire um maior relevo no contexto de novas experiências previstas e em curso no SNS e da renovada necessidade de avaliação e regulação que daí decorrem. Neste estudo pretendeu-se discutir a metodologia para apuramento do índice de casemix dos hospitais, introduzindo- se a gravidade dos casos tratados como atributo relevante para a sua concretização. Assim, foi analisada uma amostra de 950 443 casos presentes na base de dados dos resumos de alta em 2002, tendo- -se dado particular atenção aos 31 hospitais posteriormente constituídos como SA. Foram considerados três índices de casemix: índice de complexidade (a partir do peso relativo dos DRGs), índice de gravidade (a partir da escala de mortalidade esperada do disease staging recalibrada para Portugal) e índice conjunto (média dos dois anteriores). Verificou-se que a análise do índice de complexidade, de gravidade e conjunto dá informações distintas sobre o perfil de admissões dos hospitais considerados. Os índices de complexidade e de gravidade mostram associações distintas às características dos hospitais e dos doentes tratados. Para além disso, existe uma diferença clara entre os casos com tratamento médico e cirúrgico. No entanto, para a globalidade dos hospitais analisados observou-se que os hospitais que tratam os casos mais graves tratam igualmente os mais complexos, tendo-se ainda identificado alguns hospitais em que tal não se verifica e, quando possível, apontado eventuais razões para esse comportamento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nas últimas décadas, as empresas têm sido sujeitas a uma maior concorrência, ao desenvolvimento tecnológico mais acelerado e a novos desafios no que respeita à qualidade. A Metrologia deverá assim acompanhar estas tendências do mercado. O Departamento de Metrologia (DMET) do Instituto Português da Qualidade, I.P. (IPQ) tem vindo a desenvolver esforços significativos que visam a melhoria contínua das técnicas e dos processos de medição e de calibração realizados nos laboratórios. A presente dissertação de mestrado foi realizada no Laboratório de Volume e Caudal (LVC) do DMET. Os objetivos iniciais do trabalho centraram-se na caraterização metrológica de contadores de fluidos, tendo como base a medição do caudal, utilizando como método de referência o método gravimétrico. De forma a validar o sistema de medição foram realizados ensaios entre 1 mL/h a 100 mL/h, em condições de reprodutibilidade, com dois sistemas padrão distintos de acordo com o caudal a ensaiar. Em todos os ensaios efetuados foi necessário monitorizar as condições ambientais, i.e. temperatura, pressão atmosférica, humidade relativa e a temperatura do líquido padrão, para a aplicação das correções necessárias. Outro feito importante foi a caraterização das fontes de incerteza, que permitiram caraterizar o resultado das medições. A metodologia utilizada para a avaliação e para a estimativa da incerteza de medição encontra-se descrita no Guide to the Expression of Uncertainty in Measurement (GUM). Neste projeto foram contempladas fontes de incerteza como as associadas à evaporação, à impulsão do tubo, à resolução da balança, entre outras. Com os resultados obtidos foi possível elaborar um procedimento técnico para a Calibração de Caudalímetros de Líquidos. Os resultados obtidos permitiram garantir a rastreabilidade das medições de caudal de líquidos ao SI, essencial para a calibração de equipamentos no Laboratório Nacional de Metrologia (LNM) do IPQ, nomeadamente para micro caudalímetros no intervalo de medição entre 0,12 mL/h e 600 mL/h.

Relevância:

20.00% 20.00%

Publicador:

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO - As organizações de saúde, em geral, e os hospitais, em particular, são frequentemente reconhecidos por terem particularidades e especificidades que conferem uma especial complexidade ao seu processo produtivo e à sua gestão (Jacobs, 1974; Butler, 1995). Neste sentido, na literatura hospitalar emergem alguns temas como prioritários tanto na investigação como na avaliação do seu funcionamento, nomeadamente os relacionados com a produção, com o financiamento, com a qualidade, com a eficiência e com a avaliação do seu desempenho. O estado da arte da avaliação do desempenho das organizações de saúde parece seguir a trilogia definida por Donabedian (1985) — Estrutura, Processo e Resultados. Existem diversas perspectivas para a avaliação do desempenho na óptica dos Resultados — efectividade, eficiência ou desempenho financeiro. No entanto, qualquer que seja a utilizada, o ajustamento pelo risco é necessário para se avaliar a actividade das organizações de saúde, como forma de medir as características dos doentes que podem influenciar os resultados de saúde. Como possíveis indicadores de resultados, existem a mortalidade (resultados finais), as complicações e as readmissões (resultados intermédios). Com excepção dos estudos realizados por Thomas (1996) e Thomas e Hofer (1998 e 1999), praticamente ninguém contesta a relação entre estes indicadores e a efectividade dos cuidados. Chamando, no entanto, a atenção para a necessidade de se definirem modelos de ajustamento pelo risco e ainda para algumas dificuldades conceptuais e operacionais para se atingir este objectivo. Em relação à eficiência técnica dos hospitais, os indicadores tradicionalmente mais utilizados para a sua avaliação são os custos médios e a demora média. Também neste domínio, a grande maioria dos estudos aponta para que a gravidade aumenta o poder justificativo do consumo de recursos e que o ajustamento pelo risco é útil para avaliar a eficiência dos hospitais. Em relação aos sistemas usados para medir a severidade e, consequentemente, ajustar pelo risco, o seu desenvolvimento apresenta, na generalidade, dois tipos de preocupações: a definição dos suportes de recolha da informação e a definição dos momentos de medição. Em última instância, o dilema que se coloca reside na definição de prioridades e daquilo que se pretende sacrificar. Quando se entende que os aspectos financeiros são determinantes, então será natural que se privilegie o recurso quase exclusivo a elementos dos resumos de alta como suporte de recolha da informação. Quando se defende que a validade de construção e de conteúdo é um aspecto a preservar, então o recurso aos elementos dos processos clínicos é inevitável. A definição dos momentos de medição dos dados tem repercussões em dois níveis de análise: na neutralidade económica do sistema e na prospectividade do sistema. O impacto destas questões na avaliação da efectividade e da eficiência dos hospitais não é uma questão pacífica, visto que existem autores que defendem a utilização de modelos baseados nos resumos de alta, enquanto outros defendem a supremacia dos modelos baseados nos dados dos processos clínicos, para finalmente outros argumentarem que a utilização de uns ou outros é indiferente, pelo que o processo de escolha deve obedecer a critérios mais pragmáticos, como a sua exequibilidade e os respectivos custos de implementação e de exploração. Em relação às possibilidades que neste momento se colocam em Portugal para a utilização e aplicação de sistemas de ajustamento pelo risco, verifica-se que é praticamente impossível a curto prazo aplicar modelos com base em dados clínicos. Esta opção não deve impedir que a médio prazo se altere o sistema de informação dos hospitais, de forma a considerar a eventualidade de se utilizarem estes modelos. Existem diversos problemas quando se pretendem aplicar sistemas de ajustamento de risco a populações diferentes ou a subgrupos distintos das populações donde o sistema foi originalmente construído, existindo a necessidade de verificar o ajustamento do modelo à população em questão, em função da sua calibração e discriminação.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

O objetivo principal deste trabalho é desenvolver um protótipo de ferramenta que permita a geração de ficheiros de configuração de sistemas distribuídos de controlo em plataformas específicas permitindo a integração de um conjunto de componentes previamente definidos. Cada componente é caracterizado como um módulo, identificando-se o conjunto de sinais e eventos de entrada e saída, bem como o seu comportamento, normalmente especificado através de um modelo em redes de Petri IOPT – RdP-IOPT (Input-Output Place-Transitions). O formato PNML (Petri Net Markup Language) será utilizado para a representação de cada componente. Os componentes referidos poderão ser obtidos através de vários métodos, nomeadamente através de ferramentas em desenvolvimento, que se encontram disponíveis em http://gres.uninova.pt/IOPT-Tools/ e também através da sua edição no editor de IOPT, como resultado da partição de um modelo expresso em IOPT, utilizando o editor Snoopy-IOPT em conjugação com a ferramenta SPLIT. Serão considerados várias formas para interligação dos componentes, incluindo-se ligações diretas e wrappers assíncronos num contexto de sistemas Globalmente Assíncronos Localmente Síncronos - GALS bem como diferentes tipos de barramentos e ligações série, incluindo Network-On-Chip específicos. A descrição da interligação entre componentes é gerada automaticamente pela ferramenta desenvolvida, tendo em conta resultados de dissertações de mestrado anteriores. As plataformas especificas de suporte à implementação incluem FPGA’s da serie Xilinx Spartan3,3E e Xilinx Virtex, e várias placas de desenvolvimento.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

RESUMO - O presente estudo circunscreve-se na temática da medição e caracterização da produção hospitalar, bem como, da avaliação do desempenho hospitalar. Considerando como âmbito do estudo, o internamento hospitalar português no ano de 2011 e, concretamente, 12 Grupos de Diagnósticos Homogéneos (GDH), a utilização da informação administrativa da base de dados dos resumos de alta prendeu-se com a sua disponibilidade e acessibilidade. Esta é fonte de informação para os dois Sistemas de Classificação de Doentes utilizados, os GDH e o Disease Staging (Staging), os quais utilizam diferentes metodologias para comparar a produção hospitalar, os pesos relativos, no caso dos GDH, e a mortalidade prevista, no caso do Staging. A lógica subjacente aos GDH e aos outputs que gera não é intuitiva nem acompanha a evolução da doença: os doentes são agrupados com base no consumo de recursos tendo como unidade de medida os dias de internamento. A falta de significância clínica é uma das principais críticas tecidas aos GDH. Por outro lado, o Staging tem como premissa a evolução natural da doença e como critério agregador a gravidade – atributo que lhe atribui relevância no âmbito do ajustamento pelo risco. Os objectivos traçados podem organizam-se em duas principais perspectivas: A demora média (DM) e a gravidade, e o Desempenho hospitalar – demora média e complicações. Apesar das limitações intrínsecas à DM, esta é, enquanto medida de eficiência, o principal indicador da gestão hospitalar em Portugal. A pertinência do estudo da DM circunscreve-se, essencialmente, a dois níveis. Primeiro, sobre a efectividade dos cuidados prestados e os resultados em saúde. Segundo, sobre a eficiência. A pertinência do estudo da efectividade relacionou-se, essencialmente, com a pretensão de compreender o impacto das complicações sobre o desempenho dos hospitais ao nível da DM. No âmbito dos resultados, apesar de, para praticamente todos os GDH, a DM aumentar à medida que aumenta a gravidade, e ser significativamente diferente em função do nível de gravidade dos doentes, a análise de correlação indica que as variáveis se relacionam com base numa associação muito baixa para a maior parte dos GDH, o que pode ser sugestivo da influência de outras variáveis. Se para os doentes menos graves, a DM e a gravidade variam em sentidos opostos, já para os doentes mais graves variam no mesmo sentido. Todavia, para os doentes de gravidade intermédia não foi possível identificar qualquer tendência. A grande dispersão da DM permite colocar em causa a homogeneidade dos GDH em termos da sua unidade de medida e enfatiza a existência da variabilidade institucional. São os doentes menos graves aqueles que apresentam maior variabilidade ao nível da DM. Relativamente à medição do desempenho hospitalar na óptica da eficiência, com base no Z-score da DM e na óptica da efectividade, com base no Z-score das complicações verificou-se que os hospitais apresentam diferentes desempenhos para ambas as medidas, e comportamentos distintos, mediante o GDH ou a doença em análise. Contudo, quando se analisa a eficiência, globalmente, ou por GDH ou doença é possível identificar tendências e semelhanças. Concretamente em relação ao impacto das complicações sobre a DM, o estudo dá evidência da existência de diferenças estatisticamente significativas entre a DM com complicações e sem complicações (excepção do GDH 372). Verifica-se ainda que a presença de complicações tem impacto sobre o desempenho dos hospitais ao nível da DM.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

En la presente investigación se estima la edad y creecimiento de la pacora (Plagiosclon surinamensis), por medio de la comparación de los métodoe de distribución de frecuencias, marcas en las escamas y marcae en los otolitos; de esta comparación se concluye que la pacora forma tres anillos en las escamas por año y con base en este método, estableciendo los grupos de edad anuales, se calcula la ecuación de crecimiento de Von Bertalanffy, la cual se expressa de la siguiente manera:Lt (ram) = 775.1 * {1 - e -0.362 * (t - 0.0978)}. La relación talla-peso se calculó ordenando las tallas en intervalos de 10 ram y corresponde a la ecuación:Peso (gr) = 1.1 * 10-5 * L. E.(3.08), no encontrándose diferencias significativas entre el crecimiento de hembras y el de machos. Se complementa la investigación con información sobre tallas mínimas y medias de madurez sexual y espectro trófico de la especie en la parte baja de la cuenca del Río Magdalena y su plano inundable.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Os estudos da satisfação e lealdade do cliente em ambiente Business-to-Business têm emergido devido ao interesse práctico e académico. Recorreu-se a um caso práctico de uma empresa de software internacional, ESRI, a operar em Portugal com modelo de negócio B2B e comportamento de compra extensivo. Desenvolveu-se um modelo estrutural com 11 variáveis latentes: lealdade; satisfação; imagem; atmosfera; cooperação; adaptação; processos; tecnologia; orientação ao cliente; competências; colaboradores e comunicação. Foram analisadas 304 respostas ao questionário de satisfação e de seguida aplicou-se o modelo a seis grupos de clientes segmentados de acordo com a contribuição do cliente para as receitas e o comportamento no processo de decisão de compra. Recorreu-se a modelos SEM (Structural Equation Modelling) com estimação dos parâmetros através da metodologia PLS (partial Least Squares). Os resultados mostram nos seis segmentos, que os valores da empresa, a cooperação através da competência dos colaboradores e da orientação ao cliente e a tecnologia são factores mais importantes para a satisfação e lealdade dos clientes.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Nos últimos anos o risco operacional registou uma grande evolução do ponto de vista da sua gestão e quantificação, e destacou-se dos restantes riscos. Está presente em todas as atividades das instituições financeiras e é inseparável do negócio e dos objetivos das organizações. Tendo em conta a importância deste tipo de risco, hoje é importante avaliar o impacto da sua gestão e como esta influencia os resultados das instituições. O presente trabalho de projeto apresenta um caso de estudo de uma instituição financeira portuguesa, onde é analisado o processo de implementação das diferentes abordagens de quantificação e gestão de risco operacional propostas pelo Acordo de Basileia II. São apresentados os desafios e os potenciais benefícios das diferentes abordagens e os processos onde são necessárias melhorias. Destaca-se o método avançado devido à sua relevância na gestão e quantificação interna de risco operacional da instituição.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

As florestas são uma fonte importante de recursos naturais, desempenhando um papel fulcral na sustentabilidade ambiental. A sua gestão quer territorial quer económica, conduz a uma maximização da produção, sem alteração da qualidade da matéria-prima. Portugal apresenta mais de um terço do seu território coberto por floresta, apresentando uma possibilidade de aplicação de sistemas de gestão, territorial e económica que maximizem a sua produção. Os Sistemas de Informação Geográfica (SIG) são modelos da realidade em que é possível integrar toda a informação disponível sobre um assunto tendo por base um campo comum a todos as variáveis, a localização geográfica. Os SIG podem contribuir de diversas formas para um maior desenvolvimento das rotinas e ferramentas de planeamento e gestão florestal. A sua integração com modelos quantitativos para planeamento e gestão de florestas é uma mais-valia nesta área. Nesta dissertação apresentam-se modelos geoestatísticos, com recurso a Sistemas de Informação Geográfica, de apoio e suporte à produção de pinha em Pinheiro-manso (Pinus pinea L.). Procurando estimar as áreas com melhor propensão à produção, a partir de dados amostrais. Estes foram previamente estudados tendo sido selecionadas quatro variáveis: largura da copa, área basal, altura da árvore e produção de pinha. A geoestatística aplicada, inclui modelos de correlação espacial: kriging, onde são atribuídos pesos às amostras a partir de uma análise espacial baseada no variograma experimental. Foi utilizada a extensão Geostatistical Analyst do ArcGis da ESRI, para realizar 96 krigings para as quatro variáveis em estudo, com diferentes parametrizações, destes foram selecionados 8 krigings. Com base nos critérios de adequação dos modelos e da análise de resultados da predição dos erros - cross validation. O resultado deste estudo é apresentado através de mapas de previsão para a produção de pinha em Pinheiro manso, em que foram analisadas áreas com maior e menor probabilidade de produção tendo-se realizado análises de comparação de variáveis. Através da interseção de todas as variáveis com a produção, podemos concluir que os concelhos com maiores áreas de probabilidade de produção de pinha em Pinheiro manso, da área de estudo, são Alcácer do Sal, Montemor-o-Novo, Vendas Novas, Coruche e Chamusca. Com a realização de um cruzamento de dados entre os resultados obtidos dos krigings, e a Carta de Uso e Ocupação do Solo de Portugal Continental para 2007 (COS2007), realizaram-se mapas de previsão para a expansão do Pinheiro manso. Nas áreas de expansão conseguimos atingir aumentos mínimos na ordem dos 11% e máximo na ordem dos 61%. No total consegue-se atingir aproximadamente 128 mil ha para área de expansão do Pinheiro manso. Superando, os valores esperados pelos Planos Regionais de Ordenamento Florestal, abrangidos pela área da amostra em estudo, em que é esperado um incremento de cerca de 130 mil hectares de área de Pinheiro manso para 2030.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Este Relatório de Estágio tem como objetivo principal dar a conhecer a empresa em que realizei o estágio (UNISYS), o contexto sobre o qual trabalhei (CRM), tecnologias que utilizei, as atividades e funções que fui tendo ao longo do estágio, bem como as skills necessárias a executar essas mesmas funções. É ainda, feita uma ponte entre o tema “Ciclo de Vida de Desenvolvimento de Software” (matéria dada ao longo da Licenciatura e Mestrado) e o estágio em si. A pertinência desta interligação, surge uma vez que se trata de uma matéria que me fascina, e pelo facto de terem sido utilizadas diversas metodologias ao longo do meu estágio.

Relevância:

20.00% 20.00%

Publicador:

Resumo:

Existem diversos métodos tradicionais que são utilizados para extratir biomoléculas produzidas por fermentação convencional. Um método alternativo é o sistema de duas fases aquosas, o qual foi desenvolvido para a extração de bioprodutos. A bioconversão extrativa trata-se de um sistema de duas fases aquosas que integra cultivo microbiológico à produção e recuperação do bioproduto. Fitases são fosfatases específicas que estão envolvidas na catálise do ácido fitico. O objetivo deste trabalho foi estudar a partição da fitase produzida por A. niger var. phoenicis por bioconversão extrativa utilizando PEG/citrato. Realizou-se um planejamento fatorial completo 25, estudando as seguintes variáveis: massa molar do PEG, concentração do PEG, concentração de citrato, pH e agitação, onde obteve-se como variável-resposta o coeficiente de partição em atividade (KATIV). Neste trabalho conseguiu-se um coeficiente de partição de 25,77 utilizando MPEG (8000 g/mol), CPEG, (26,0% m/m), CCIT (20,0% m/m), pH (6,0) e agitação (100 rpm). Através dos resultados obtivos, pode-se concluir que a fitase utilizada no presente estudo apresenta uma tendência de particionar para a fase superior do sistema (K>1). A técnica de fermentação extrativa utilizando SDFA PEG/citrato demonstrou ser promissora para extração de fitase produzida por A. niger var. phoenicis, podendo ser aplicada na composição de rações comerciais.