29 resultados para Entropia conjunta
Resumo:
o exame para o diagnóstico de doenças da laringe é usualmente realizado através da videolaringoscopia e videoestroboscopia. A maioria das doenças na laringe provoca mudanças na voz do paciente. Diversos índices têm sido propostos para avaliar quantitativamente a qualidade da voz. Também foram propostos vários métodos para classificação automática de patologias da laringe utilizando apenas a voz do paciente. Este trabalho apresenta a aplicação da Transformada Wavelet Packet e do algoritmo Best Basis [COI92] para a classificação automática de vozes em patológicas ou normais. Os resultados obtidos mostraram que é possível classificar a voz utilizando esta Transformada. Tem-se como principal conclusão que um classificador linear pode ser obtido ao se empregar a Transformada Wavelet Packet como extrator de características. O classificador é linear baseado na existência ou não de nós na decomposição da Transformada Wavelet Packet. A função Wavelet que apresentou os melhores resultados foi a sym1et5 e a melhor função custo foi a entropia. Este classificador linear separa vozes normais de vozes patológicas com um erro de classificação de 23,07% para falsos positivos e de 14,58%para falsos negativos.
Resumo:
Para o desenvolvimento de sistemas interativos que respeitem critérios de usabilidade em adição aos critérios de qualidade convencionais, é necessário que, desde suas primeiras etapas, as áreas de Engenharia de Software (ES) e de Interação Humano- Computador (IHC) sejam consideradas, simultaneamente e de maneira integrada. Essas duas áreas investigam modelos, conceitos, técnicas e práticas que refletem diferentes perspectivas sobre a atividade de desenvolvimento, uma orientada mais ao sistema (ES) e outra, mais ao usuário (IHC). Para conciliar estas perspectivas, é necessário o estabelecimento de um entendimento mútuo e a utilização conjunta e integrada de conceitos, técnicas e práticas de desenvolvimento de ambas as áreas. Este trabalho visa mostrar as possibilidades desta integração, através da combinação dos conceitos de Casos de Uso (Use Cases) e Cenários (Scenarios), importantes técnicas de modelagem amplamente utilizadas respectivamente nas áreas de ES e IHC, em diferentes contextos, com diferentes visões; mas apresentando similaridades valiosas para propiciarem o uso complementar de ambas as técnicas. Para sistematizar esta integração, é proposta uma abordagem teleológica – baseada em objetivos – de construção sistemática de casos de uso com quatro diferentes níveis de abstração, desde os mais abstratos casos de uso essenciais até os cenários, aqui utilizados como instâncias concretas de casos de uso. Com esta abordagem, pretende-se construir um modelo de casos de uso que permita especificar requisitos funcionais, conjuntamente com requisitos de interação, de maneira compreensível e praticável e que sirva como ponto de partida à continuidade do desenvolvimento orientado a objetos de software. Com o intuito de exemplificar a proposta, é descrita e discutida a aplicação passo a passo desta abordagem a um exemplo.
Resumo:
O presente trabalho teve como objetivo avaliar se as variáveis biomassa (BM) e respiração (RM) microbianas e as atividades de β -glucosidase, urease, amidase, fosfatase ácida e aril-sulfatase podem servir como indicadores biológicos de qualidade do solo. Foram realizados três estudos, utilizando um experimento de longa duração que avalia diferentes sistemas de culturas na recuperação do solo. No primeiro, as variáveis acima foram avaliadas durante um ano, e os resultados foram correlacionados com indicadores físicos, químicos e de produtividade dos tratamentos solo descobertoc (SD), pousio/milho, aveia/milho, pousio/milho+lablab, aveia+vica/milho+caupi, guandu/milho+guandu e campo nativo (CN), buscando demonstrar a adequação de seu uso como indicadores biológicos de qualidade, além de observar seus comportamentos quanto a variações sazonais. No segundo, foi avaliada a influência da presença de raízes e da cobertura constante e integral do solo sobre a qualidade biológica, utilizando-se as variáveis acima para comparar o solo quando sob gramínea perene, sob dois sistemas de cultura de milho (com e sem leguminosa em consórcio) ou sob CN e SD. O terceiro estudo avaliou a qualidade do solo, segundo estas variáveis, em função da adição de N em cobertura no milho, em dois sistemas de cultura de milho (com e sem leguminosa em consórcio). Foram verificadas altas correlações entre as variáveis analisadas e teores de C orgânico e N total, além de outros indicadores de qualidade física e de produtividade do solo, confirmando a adequação de seu uso como indicadores biológicos de qualidade. Porém, como seu uso individual pode induzir a erros, foi proposta sua avaliação conjunta, em forma gráfica ou de índice, o que garante resultados mais abrangentes e integrados sobre a qualidade do solo. No segundo estudo, a elevada presença de raízes no tratamento com gramínea perene não garantiu a elevação dos valores das variáveis analisadas aos níveis do solo sob CN, indicando que estes possam estar relacionados à complexidade da comunidade vegetal presente sobre o mesmo e à diversidade microbiana dela resultante. No terceiro estudo, a adição de N em cobertura no milho, consorciado ou não com leguminosa, agiu seletivamente sobre a vida microbiana e sua atividade no solo, não alterando significativamente sua qualidade em termos biológicos. As variáveis avaliadas mostraram-se adequadas para a quantificação da qualidade biológica do solo, e seus resultados sugerem que a rotação e a consorciação de culturas são práticas recomendáveis para a recuperação e a manutenção da mesma em solos cultivados.
Resumo:
o objetivo principal da pesquisa é analisar a influência conjunta do tamanho e da velocidade de deformação (ou velocidade de alongamento) nas propriedades mecânicas do aço, procurando determinar a possível existência de acoplamento produzido com a variação conjunta dos dois parâmetros. A pesquisa inclui a revisão bibliográfica, a análise teórica do assunto e um estudo experimental com 130 corpos de prova de diferentes tamanhos, extraídos duma única chapa grossa de aço, ensaiados com diferentes velocidades de deformação, obtendo resultados de distintas variáveis (resistência à tração, deformação de ruptura, energia consumida por unidade de volume, deformação correspondente à resistência à tração e redução da área na zona de escoamento). As principais conclusões da análise teórica são: a) Levando em consideração que o conceito de comprimento característico do material é de fundamental importância para interpretar o efeito de tamanho, se determina a forma geral da função f que define o fenômeno, para materiais com um e dois comprimentos característicos. b) Por analogía, para analisar o efeito produzido pela velocidade de deformação se pode supor a existência de uma, o mais de uma, velocidade de deformação característica do material, resultando uma função f que tem a mesma forma geral que no efeito de tamanho. c) Os atuais modelos que interpretam os efeitos de tamanho e de velocidade de deformação podem ser expressados na forma das expressões gerais encontradas. d) Também se determina a forma geral da função.f que define o efeito conjunto de tamanho e de velocidade de deformação quando não existe acoplamento das duas variáveis e no caso geral de um material com um comprimento e uma velocidade de deformação característica Os principais resultados do estudo experimental são: a) A variação das propriedades quando varia o tamanho, a velocidade de deformação, a posição na espessura e a região da qual é extraído o corpo de prova. b) Existe acoplamento dos dois efeitos claramente significativo para a resistência à tração e a deformação correspondente à resistência à tração, apenas significativo para a deformação de ruptura e a energia consumida por unidade de volume e não significativo para a redução da área na zona de escoamento. c) Do estudo experimental da resistência à tração resulta que o acoplamento dos dois efeitos é tal que quando aumenta a velocidade de deformação e diminui o tamanho o efeito conjunto se acentua e quando diminui a velocidade de deformação e aumenta o tamanho o efeito conjunto se atenua. d) Com base nos critérios existentes que analisam os dois efeitos por separado é deíinido um novo critério para a resistência à tração, incorporando termos que permitem interpretar o acoplamento dos dois efeitos, obtendo um melhor resultado que reduz a soma de quadrados dos resíduos em 20 % . As conclusões da tese proporcionam maior informação teórica e experimental dos efeitos de tamanho e de velocidade de deformação nas propriedades mecânicas dos materiais que podem contribuir para adotar decisões na consideração destes efeitos nas estruturas.
Resumo:
Os impactos sobre o meio ambiente, associados ao desenvolvimento de atividades pelo homem em uma bacia hidrográfica, estão fortemente inter-relacionados e têm, a cada dia, se tornado mais evidentes. Esta idéia motiva a concepção de uma gestão integrada dos recursos naturais em várias partes do mundo, inclusive em países em desenvolvimento como o Brasil. Modelos matemáticos de qualidade de água podem ser ferramentas úteis para a tomada de decisão no apoio à gestão de bacias hidrográficas. O planejamento e gestão dos recursos hídricos em um país de grande porte como o Brasil envolve, geralmente, bacias extensas, com um vasto conjunto de elementos naturais e antrópicos. Um modelo de qualidade de água deve permitir a representação da variabilidade espacial da região e, desta forma, a consideração de fontes difusas juntamente com fontes pontuais de poluição. O presente estudo analisou o impacto do desenvolvimento sobre a qualidade da água em uma bacia de grande extensão (bacia do rio Taquari-Antas, RS, com 26.500 km2), considerando a alternativa de aproveitamento hidrelétrico definida no inventário da bacia. Utilizou-se um modelo distribuído de simulação hidrológica e de qualidade de água aplicável principalmente a grandes bacias ( > 1.000 km2), o IPH-MGBq. Este modelo, desenvolvido no IPH, foi ajustado aos dados diários observados de vazão, no seu módulo de quantidade, e de concentração de OD, DBO, nitrogênio e fósforo totais e coliformes fecais, obtidos de coletas trimestrais, no módulo de qualidade. O modelo permite a análise temporal das condições hidrológicas e de qualidade da água de toda a bacia, discretizada por células, com trechos de rios e reservatórios. O modelo apresentou bom desempenho quanto à quantidade (vazões) e quanto aos perfis de concentração dos parâmetros de qualidade de água ao longo do Taquari- Antas, principalmente em termos de valores médios. Foi realizada uma análise de incertezas de alguns parâmetros e variáveis de entrada do modelo com relação à inerente incerteza existente na definição destes elementos. Esta metodologia demonstrou ser uma alternativa adequada à aplicação de modelos distribuídos de qualidade de água em bacias sem dados, sendo que os erros cometidos pelo modelo, em relação aos valores de concentração observados, foram aceitáveis para uma confiança de 95%. A simulação de alguns cenários de desenvolvimento na bacia do Taquari-Antas evidenciou a importância da avaliação conjunta de todos os elementos da bacia (fontes pontuais e difusas de poluição e da implantação de reservatórios) sobre a qualidade de suas águas. O IPH-MGBq mostrou ser uma ferramenta útil para a simulação de cenários de desenvolvimento em grandes bacias como base para a tomada de decisão na gestão dos recursos hídricos.
Resumo:
O crescimento das marcas próprias no varejo já é realidade há alguns anos no Brasil, como apontam os dados de mercado. Contudo, o potencial brasileiro ainda deve ser desenvolvido: enquanto a participação em volume das marcas próprias no país é de 5,6%, na Inglaterra este número chega a 40,8%. Isso propicia um campo fértil para a curiosidade acadêmica, na tentativa de se verificar qual o processo de introdução de marcas próprias dos varejistas nacionais. Como método de pesquisa mais adequado para o tema escolhido decidiu-se pelo método de estudo de caso. O estudo das redes de supermercado Carrefour, Sonae e Pão de Açúcar foram gerados a partir de uma análise de conteúdo dos dados coletados em entrevistas, troca de correios eletrônicos, palestras presenciadas pelo autor e material fornecido pelas empresas. Os casos receberam, posteriormente, uma análise conjunta. Como resultado, tem-se a construção de um modelo com as principais decisões e possibilidades estratégicas para empresas em processo de introdução de marcas próprias. O material levantado indica que as estratégias utilizadas pelas empresas estudadas convergem com as experiências estrangeiras. Essa tendência se confirma com a entrada do Grupo Pão de Açúcar no segmento de marcas próprias premium e pelas constantes iniciativas das empresas estudadas de diferenciar seus produtos em relação às marcas primeiro preço. Com isso, a imagem da marcas própria no Brasil passa por uma nova fase, mais positiva e sólida. Também foram identificadas estratégias voltadas à inovação, tanto por meio da criação de categorias de produto, quanto pela inovação incremental dos itens.
Resumo:
Os modelos computacionais SATURN e DRACULA avaliam o tráfego através de diferentes fundamentações teóricas. O SATURN é um modelo macroscópico de alocação de tráfego que incorpora uma estrutura mesoscópica de simulação de interseções. O DRACULA é um modelo microscópico de simulação de tráfego: reproduz a progressão dos veículos através da rede, representando cada entidade individualmente. Ambos os modelos foram desenvolvidos no ITS – Institute for Transport Studies – da Universidade de Leeds, e permitem a troca de informações, podendo ser aplicados em conjunto. O presente trabalho de pesquisa compara as estruturas de simulação do SATURN e do DRACULA. O estudo confronta as fundamentações teóricas dos modelos, relacionando-as com a aplicação prática. São avaliados os dados de entrada, os parâmetros de saída, e os processos particulares de estimação de parâmetros de cada modelo. Através de análises de sensibilidade, avalia-se o impacto da variação de dados de entrada nos parâmetros de saída. Em um estudo de caso, avalia-se a aplicação conjunta dos modelos, ao replicarem o mesmo cenário. O estudo identifica divergências e afinidades na conceituação e no tratamento de parâmetros de entrada e saída tais como dados de descrição de rede e demanda, atrasos, velocidades, tempos de viagem, e capacidade viária. Por fim, o estudo propõe recomendações sobre a implementação prática dos modelos, especialmente quando utilizados em conjunto.
Resumo:
As atividades dos Institutos de Pesquisa são a Pesquisa, o Desenvolvimento e a Inovação (PD&I), onde as tecnologias, produtos e serviços, constituem-se no produto final a ser disponibilizado à sociedade. No setor florestal, isto é bem marcante nos Institutos de Pesquisa Mistos que, ao contrário dos Institutos Públicos de Pesquisa, tem suas atividades de pesquisa e desenvolvimento direcionadas prioritariamente a solução de problemas imediatos dos sistemas de produção de madeira e o aumento da produtividade dos povoamentos florestais, para o atendimento das empresas associadas. Com o objetivo de identificar as possíveis diferenças nos modelos de geração, difusão e transferência de tecnologia dos IPPs e IPMs e qual o modelo atualmente em uso por esses institutos é que o presente estudo foi idealizado e implementado. Com o apoio de uma survey em uma fase inicial, foi construído um estudo de casos envolvendo os institutos de pesquisas florestais mais demandados pelos clientes/usuários dos IPPs e IPMs e realizada uma análise comparativa entre IPPs e IPMs, atuando na região Sul. A survey foi utilizada para viabilizar conhecer os clientes/usuários dos IPPs e IPMs. Em uma segunda fase, a principal da pesquisa, com a utilização da metodologia de estudo de casos, apoiada nos resultados da survey, foram coletados dados junto aos IPPs e IPMs para o conhecimento do processo de geração, difusão e transferência de tecnologia desses institutos e, dessa forma, conhecer os diferentes modelos de transferência de tecnologia, atualmente em uso pelos IPPs e IPMs. Foram considerados no estudo as questões pertinentes, levando em conta as características percebidas com a inovação, a existência ou não de ações colaborativas para a realização de PD&I, a sustentabilidade ambiental das pesquisas e a influência e ação dos stakeholders e do Sistema Nacional de Inovação neste processo. Os resultados alcançados demonstraram a existência de uma postura mais competitiva que colaborativa, tanto entre os usuários das pesquisas como no relacionamento entre os próprios institutos de pesquisa. Outro resultado interessante foi à identificação, na opinião desses usuários de um grau de satisfação maior em relação aos IPPs que aos IPMs, fato que surpreende pela própria característica da relação entre os IPMs e seus associados. A análise conjunta do Sistema Nacional de Inovação permitiu concluir que, instituição importante desse sistema tem atuado mais de uma forma limitadora que facilitadora das ações dos IPPs e IPMs, principalmente nos aspectos regulatórios e fiscalizadores da atividade florestal, em detrimento de ações estimuladoras em prol do desenvolvimento econômico, social e do agronegócio florestal da região Sul, resultados que também levam a concluir a influência do SNI no direcionamento do modelo de pesquisa desses institutos mais para um modelo mercadológico que tecnológico.
Resumo:
Este estudo considera, de forma conjunta, duas das principais vertentes teóricas sobre a estrutura de capital das empresas: a assimetria informacional, através do modelo do pecking order, de Myers e Majluf (1984), e a teoria dos conflitos de agência, tratada por Jensen e Meckling (1976). Mais especificamente, são enfocados os conflitos existentes em empresas onde existe definição de controle acionário e, sua possível influência na hierarquia das fontes de financiamento presente no pecking order. Ressalta-se, além das construções teóricas envolvendo as teorias mencionadas, a consideração explícita de características notoriamente presentes no mercado brasileiro, de forma a contribuir para um maior entendimento sobre a estrutura de capital no Brasil. O trabalho empírico considerou uma amostra composta de 322 empresas com ações negociadas na Bovespa no período compreendido entre 1996 e 2002. Foram utilizados dois tipos de testes nas proposições teóricas efetuadas: testes não paramétricos, devido à baixa exigência quanto aos parâmetros amostrais e, regressões em painel, onde foram consideradas as interações de diversas variáveis na determinação da estrutura de capital das empresas. Os principais resultados apontam uma forte confirmação para três, dentre as seis proposições efetuadas. Para uma, os testes apontaram resultados ambíguos, e ,para as duas remanescentes, as evidências foram contrárias às predições.
Resumo:
O presente trabalho decorre da importânciada Seleção dos Materiais no Design de produtos como um fator tecnológico para a inovação e minimização de falhas de projetos. Assim, a investigação dos fatores importantes para a determinação dos seus requisitos ou objetivos torna-se primordial para se estabelecer uma seleção adequada na proposta, buscando determinar o grau de satisfação do consumidor através do atendimento às variáveis objetivas e subjetivas dos projetos que foram abordadas neste estudo. Em função do grande número de diferentes materiais existentes, este processo apresenta-se de forma complexa. Desse modo, a investigação realizada, sobre os diferentes meios de interpretação dos materiais, direcionou a pesquisa à abordagem do estudo de caso de uma Materioteca, referenciandoum sistema de seleção de materiais, onde a inclusão das variáveis subjetivas no processo vem determinar vantagens, estimulando a percepção tátil e visual do projetista. A grande participação conjunta e simultânea do Design e da Engenharia, buscando atrelar aspectos estéticos e subjetivos às viabilidades técnicas e produtivas, foram identificadas neste sistema, onde a avaliação da forma, da textura, da funcionalidade, da durabilidade, da sustentabilidade, do conceito, entre outros itens, apontam para a obtenção de novos requisitos com elevado grau de prioridade. Assim, pode-se dizer que o reconhecimento dos valores subjetivos (percepção) dos materiais, uma vez adaptados em projetos, agregam maior valor ao produto resultante, instigando o Designer a cada vez mais confrontar novos quesitos no momento da projetação, reforçando a potencialidade conceitual expressiva contida nos objetos de consumo, como, por exemplo, a marca do produto e o status social que este possa agregar, baseados na forma de pensar e na maneira de viver do consumidor, em função de suas percepções, com base nos principais órgãos dos sentidos. Em suma, os resultados obtidos neste estudo podem ser utilizados em diversas áreas do Design e da Engenharia, agregando-secomo uma ferramenta na orientação de projetos do setor calçadista.
Resumo:
Essa pesquisa procurou investigar o processo de composição narrativa pela dupla estagiário-terapeuta/paciente, em uma situação de psicoterapia psicanalítica, a partir do contexto de uma prática supervisionada de estágio em Psicologia Clínica. Participaram da pesquisa duas acadêmicas de Psicologia que realizaram o estágio em um abrigo municipal. O trabalho clínico desenvolvido pelas estagiárias foi acompanhado pela supervisão acadêmica, cuja responsável na época era a pesquisadora. Também participaram dessa pesquisa três meninas de seis, nove e dez anos de idade, acolhidas temporariamente na instituição e em acompanhamento psicoterapêutico pelas estagiárias. Os atendimentos foram realizados uma vez por semana, individualmente, na própria instituição. As estagiárias relataram cada entrevista preliminar realizada com as crianças sob a forma escrita de entrevista dialogada, cujo objetivo é a memorização do desenvolvimento da entrevista. Essa memorização associada às reflexões acerca do estágio produzidas no espaço de supervisão acadêmica formaram as fontes dos dados. Para atingir o objetivo dessa pesquisa, três estudos foram realizados e, em cada um deles, três casos, constituídos por diferentes duplas terapêuticas, foram analisados. Os resultados dos três estudos demonstram, inicialmente, que o discurso elaborado pelas duplas terapêuticas, em cada entrevista preliminar isoladamente, estrutura-se narrativamente porque esse discurso apresenta os dois princípios da narrativa, que são a sucessão e a transformação, como propõe Tzvetan Todorov. A análise conjunta dessas entrevistas denota, entretanto, que as narrativas constituídas nesse processo não podem ser reduzidas a uma lógica de sucessão linear como formula esse autor. A seqüência narrativa é regida pela lógica de causalidade semântica, que é de natureza polifônica, como propõe Paul Ricoeur. As intervenções das estagiárias sob a forma de construções, conforme conceito estabelecido por Freud, mesmo que guiadas pelo princípio da associação livre, são demarcadas, em sua maioria, pela repetição de uma versão já conhecida da história da vida de seu paciente, geralmente àquela que versa sobre o motivo do abrigamento. Assim, essas intervenções, cujo efeito possível seria que o paciente pudesse desconstruir os sentidos dados a priori, reconstruindo novas versões para os acontecimentos de sua vida e, com isso, ocupasse o lugar de autor de sua história, acabam insistindo no trauma. Dessa forma, fica explicitado um dos paradoxos do processo de formação da escuta clínica: o estagiário, ao procurar abrir os sentidos para o seu paciente, construindo junto com ele uma versão possível para a sua história, acaba, muitas vezes, fechando o sentido, construindo uma única versão para os eventos narrados pelo paciente.
Resumo:
Neste trabalho apresenta-se uma proposta de utilização conjunta do BSC (Balanced Scorecard – Quadro Balanceado de Indicadores) e do QFD (Quality Function Deployment – Desdobramento da Função Qualidade) no estabelecimento e priorização de indicadores de desempenho para fins de planejamento estratégico em empresas. A proposta foi motivada pela necessidade do estabelecimento de indicadores de desempenho em uma empresa prestadora de serviços de remanufatura de autopeças, de modo a satisfazer as exigências da norma ISO 9001:2000. A utilização da metodologia do QFD como etapa final na implementação do BSC no estudo de caso permitiu a priorização de indicadores de desempenho de acordo com o seu potencial de suprimento das exigências da norma ISO 9001:2000.
Resumo:
Utilizando métodos ab initio no nível RHF/6-311G**, combinado com conceitos do Princípio de Curtin-Hammett e da lei de distribuição de Maxwell-Boltzmann, este trabalho teve como objetivo elucidar os mecanismos implicados na reação de Michael assimétrica via o equilíbrio tautomérico imina/enamina quirais, também conhecida como alquilação desracemizante. Estão descritos novas abordagens e metodologias para uma extensiva Análise Conformacional e Análise dos Estados de Transição para moléculas com razoável número de átomos, envolvendo um alto número de graus de liberdade. Essas novas abordagens e metodologias envolvendo o Estado de Transição, proporcionaram gerar resultados com desvio de apenas 10,1% para o valor do excesso diastereoisomérico dos produtos Re/Si envolvendo a enamina (R,R) 5; consideramos ainda neste caso, contribuições de entropia e entalpia (ZPE) para a energia livre absoluta de ativação. Tais resultados obtidos evidenciaram a importância da consideração de um maior número de confôrmeros na obtenção de geometrias no estado de transição, para a correta descrição dos processos cinéticos envolvidos nas reações químicas.
Resumo:
Objetivo: Avaliar o consumo de farináceos e de alimentos ricos em ácido fólico em uma amostra de mulheres em idade fértil da cidade de Porto Alegre-Brasil. Métodos: Foi realizado um estudo de prevalência com base populacional, com uma amostra de conveniência. Foi aplicado um questionário de freqüência quantitativa contendo questões relativas à classificação sócio-econômica e ao consumo de farináceos e alimentos-fonte em folato. Foram incluídas no estudo 400 mulheres entre 15 e 45 anos. Todas as participantes assinaram o Termo de Consentimento Livre e Esclarecido. Resultados: O consumo diário de folatos nesta população foi em média de 220,1 g. A quantidade consumida de farináceos foi de 176 g por mulher. A ingestão conjunta de alimentos-fonte de folato e de farináceos fortificados (farinha de trigo e/ou milho) foi de 404,7 g por pessoa. Conclusões: Como o consumo de ácido fólico preconizado pela RDA é de 400g/dia, incluindo tanto o folato proveniente de alimentos-fonte quanto os suplementados, a adição do ácido fólico na farinha de trigo está permitindo que o limite inferior recomendado seja atingido, não havendo, no entanto, uma garantia que esse valor se mantenha se forem computadas as perdas decorrentes do cozimento e da ação da luz UV, não consideradas neste trabalho.