305 resultados para Não linearidade


Relevância:

10.00% 10.00%

Publicador:

Resumo:

Em um ambiente global dinâmico e competitivo, muitas empresas notam que constante desenvolvimento e lançamento de novos produtos são atividades-chave para seu crescimento e sobrevivência. Hoje, um dos maiores desafios enfrentados por tais empresas envolve saber como agir em um mundo em que tanto o escopo como a estrutura do ambiente competitivo estão em constante mudança, e em que reestruturações e mudanças de portfólio são centrais para as companhias que visam capitalizar com o crescimento global. Tanto o rápido ritmo de inovação tecnológica quando a crescente afluência de economias emergentes apresentam riscos e oportunidades para as empresas, o que torna importante não apenas que estas estejam atentas ao lançamento de produtos de última geração para mercados desenvolvidos: faz-se também necessário que saibam como lançar produtos antigos para novos mercados. Usando o mercado brasileiro como um exemplo, esta dissertação procurou estudar como multinacionais têm utilizado anúncios publicitários no lançamento, para novos mercados, de categorias e subcategorias de produtos já vendidas em outros países. Após uma revisão da literatura disponível, do desenvolvimento de proposições, e da avaliação destas através de três estudos de caso, foi possível verificar a existência de alguma linearidade entre os casos e a literatura estudada, incluindo: uma busca pela legitimação da categoria que precede àquela pela da marca; o uso de “especialistas” para a legitimação da categoria; o uso de apelos baseados em argumentos; e a divulgação de mais de uma característica de produto por anúncio. No entanto, dadas algumas discrepâncias entre o que foi observado nos casos e aquilo descrito na literatura consultada, também foi possível verificar que a maneira como os anúncios são feitos em diferentes lugares depende igualmente do cenário competitivo enfrentado pela empresa, bem como de variantes econômicas e culturais específicas da localidade em questão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O trabalho tem como objetivo aplicar uma modelagem não linear ao Produto Interno Bruto brasileiro. Para tanto foi testada a existência de não linearidade do processo gerador dos dados com a metodologia sugerida por Castle e Henry (2010). O teste consiste em verificar a persistência dos regressores não lineares no modelo linear irrestrito. A seguir a série é modelada a partir do modelo autoregressivo com limiar utilizando a abordagem geral para específico na seleção do modelo. O algoritmo Autometrics é utilizado para escolha do modelo não linear. Os resultados encontrados indicam que o Produto Interno Bruto do Brasil é melhor explicado por um modelo não linear com três mudanças de regime, que ocorrem no inicio dos anos 90, que, de fato, foi um período bastante volátil. Através da modelagem não linear existe o potencial para datação de ciclos, no entanto os resultados encontrados não foram suficientes para tal análise.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Neste trabalho implementou-se o elemento hexaédrico com um ponto de integração para análise estática e dinâmica de placas e cascas de materiais compósitos laminados com ou sem enrijecedores. O elemento está livre de travamento volumétrico e travamento de cisalhamento, não apresentando modos espúrios. São também incluídos problemas com não-linearidade geométrica A matriz de rigidez e de massa são dadas de forma explícita, reduzindo o tempo computacional, especialmente na análise não-linear. Para evitar o travamento de cisalhamento as componentes de deformações são referidas a um sistema co-rotacional. O travamento volumétrico é também eliminado, já que a parte dilatacional (esférica) da matriz gradiente é avaliada apenas no ponto central do elemento. Para a solução das equações de equilíbrio na análise estática, utilizam-se um método direto baseado na eliminação de Gauss ou um método iterativo de gradientes conjugados com precondicionamento executado através da eliminação incompleta de Choleski. Para a análise dinâmica, as equações de equilíbrio são integradas através do método explícito ou implícito de Taylor-Galerkin ou do método implícito de Newmark. Para análise não-linear utiliza-se o Método Generalizado de Controle dos Deslocamentos. Através de exemplos numéricos demonstra-se a eficiência e o potencial do elemento tridimensional na análise linear e não-linear de placas e cascas de materiais laminados. Os resultados são comparados com trabalhos que utilizam diferentes elementos de placas e cascas.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho procurar analisar a validade da Paridade do Poder de Compra entre regiões metropolitanas do Brasil através do Índice de Preços do Consumidor Amplo (IPCA). Para isso foram realizados testes de raiz unitária para modelos lineares e não lineares, sobre cinco grupos do IPCA: Índice Geral, Administrados, Bens Comercializáveis, Bens Não Comercializáveis e Alimentos no Domicílio. O banco de dados utilizado compreende o período de 1991 a 2013 e os testes foram realizados sobre 550 séries, comparando-se todos os pares possíveis de regiões. Sob o modelo linear, não foi possível validar a PPC para a maioria das séries através do teste de raiz unitária DF-GLS, o que é diferente do esperado, uma vez que a análise intranacional elimina os efeitos da taxa de câmbio e reduz a influência dos custos de transações sobre as condições de arbitragem. Já o resultado do modelo não linear, realizado através do teste de Kapetanios, confirmou a estacionariedade de 203 séries, de tal forma que podemos afirmar que a PPC é válida para praticamente todos os pares possíveis de regiões metropolitanas abrangidas pelo IPCA nos cinco grupos estudados. Além disso, é possível observar que as séries apresentam maiores desvios entre os anos de 1991 e 1994, período marcado por grande instabilidade macroeconômica no Brasil e de sucessivos planos econômicos que não funcionaram. Após o início do plano real, em 1994, a relação da variação de preços entre regiões apresenta menor volatilidade e uma convergência mais rápida.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Na literatura empírica, várias estimativas de taxas de retorno para educação têm sido reportadas, baseadas no modelo de Mincer (1958, 1974). No entanto, para que o coeficiente dos anos de estudo, em uma regressão do logaritmo da renda contra educação e experiência, seja entendido como taxa de retorno diversas hipóteses devem ser válidas. Baseado em Heckman, Lochner e Todd (2006) e Heckman, Ichimura, Smith e Todd (1998), testamos algumas de tais hipóteses como: linearidade nos anos estudo e separabilidade entre educação e experiência (paralelismo). Para isso, utilizamos dados da PNAD (1992-2004) e do Censo (1970-2000) e lançamos mão de regressões paramétricas e não-paramétricas (regressão linear local); e acabamos rejeitando tanto linearidade como paralelismo. Adicionalmente, relaxamos tais hipóteses e estimamos as taxas internas de retorno (T1Rs), baseado em Becker (1993), para se medir a ordem do viés em relação ao coeficiente escolar do modelo original de Mincer. Esta medida permite mensurar o tamanho do erro em diversos estudos quando os mesmos utilizam o modelo de Mincer. Obtemos vieses que chegaram a ordem de mais de 200%, como por exemplo a TIR em 2000 passando de 17.2% para todos níveis educacionais (retorno "minceriano") para 5.61% para mestrado/doutorado em relação ao nível superior, quando estimada não parametricamente, relaxando linearidade e paralelismo. Assim, diversos estudos no Brasil não consideram tais hipóteses e, conseqüentemente suas estimativas estão erradas e mais ainda, a magnitude deste erro é grande, podendo levar à conclusões distorcidas ou mal interpretadas. Assim, provemos também novas estimativas das TIRs, as quais devem ser tomadas como referência para a análise do comportamento dos agentes nos movimentos de demanda por educação e oferta de mão-de-obra. Por fim, corroboramos a evidência da literatura que os retornos educacionais estão decaindo ao longo das décadas, com exceção do nível superior que aponta para um crescimento nesta última década, mas em magnitude menor das obtidas em diversos estudos recentes, que se baseiam no modelo de Mincer.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objetivo desta pesquisa consistiu em explorar os fatores comuns das visões de futuro de três segmentos da comunidade paulistana (executivos, empreendedores sociais e pensadores), especialmente no que diz respeito às possíveis alianças cooperativas entre o mundo dos negócios e a sociedade como um todo, como também as estratégias utilizadas para concretizá-las. Indagamos se, com suas experiências de vida, os sujeitos entrevistados protagonizavam suas visões de futuro; quais eram os aspectos em comum dessas visões referentes ao futuro e ao futuro dos negócios; as estratégias utilizadas para concretizar essas visões comuns, percebidas como positivas, e de que maneira podiam contribuir para o desenvolvimento de uma relação cooperativa entre os negócios e a sociedade. Utilizamos 30 entrevistas (10 em cada segmento), em amostra acidental, gravadas e, posteriormente, submetidas a uma análise segundo o referencial da Psicologia Social de Enrique Pichon-Rivière, incluindo alguns dos indicadores do processo interacional (cooperação, comunicação e telecomunicação) e da reação dos entrevistados e entrevistadores com relação aos conteúdos aplicados (transferência e contratransferência). Baseamo-nos no protocolo de Investigação Apreciativa do projeto "Business as an Agent of World Benefit" da Weatherhead School of Management e conceitos convergentes com o referencial adotado no que se refere ao interjogo entre o homem e o mundo, o protagonismo, o contar histórias, o projeto como planejamento de futuro e a criação de novas metáforas. Com relação ao futuro imaginado, encontramos como resultado unânime a preocupação com o meio ambiente, a mudança de valores (com a revisitação da noção de bem-estar, as “mortes subjetivas” por preconceito, o acolhimento expandido aos profissionais da saúde e a saúde como valor); a interconexão (presente no mundo contábil, nos modelos econômicos equitativos, na visão do administrador como estadista, na integração entre o “dentro e fora do negócio”, na consciência da riqueza como medida global e não individual, na ética, no voluntariado por consciência, no cuidado com o ambiente, consigo mesmo, com o outro e com a vida e a morte); coerência, vínculo e escuta (com foco na qualidade das relações e não na tecnologia, no honrar o próximo, no compartilhamento de experiências, na mão dupla entre negócios e comunidade, no bom trato para com as crianças e adultos), inclusão/exclusão (com a criação de espaços públicos intencionalmente inclusivos e a real inclusão dos excluídos na empresa); a educação (através do raciocínio que lide com a linearidade vigente e estimule pensar na complexidade, do reconhecimento de aspectos saudáveis e construtivos no cotidiano, e da formação que abrange gerentes, empreendedores e comunidade, incluindo conhecimento, ética e gratidão); interioridade (alma do negócio, intuição, transcendência como diferencial influindo em uma nova percepção de lucro, sacralidade da vida, encontro consigo próprio); lucro (revisão desse conceito com foco na vida, no bem-estar, no enraizamento das pessoas); consumo/consumidor (com relação à mudança na forma de analisar investimentos inteligentes, uma nova visão de pobreza); longo prazo (ligado à sustentabilidade, à autovalorização das pessoas e à educação dos funcionários). Há muitas estratégias atuantes nos diferentes segmentos, as pensadas são: a intencionalidade de inclusão em espaços públicos por diversos agentes, a revisão do conceito de bem-estar, os benefícios compartilhados, a inclusão mais precoce do jovem no mundo dos negócios e não como forma de exploração, o incentivo às atitudes de liderança nos jovens para o novo mundo e o longo prazo, como tema a ser mais aprofundado. Quanto à relação entre negócios e sociedade parece não haver clareza entre os segmentos quanto ao papel desempenhado pelas empresas, pelas ONGs e pelas comunidades. Surgem pontos como a necessidade da expansão de idéias inovadoras por meio de instituições sem fins lucrativos, do fortalecimento da sociedade civil, de um novo conceito de organização social, das ONGs não serem mais necessárias, das comunidades solidárias como instituições de direito e da ampliação do sentido da responsabilidade social estendido ao ecossistema.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O objectivo deste trabalho é a implementação em hardware de uma Rede Neuronal com um microprocessador embebido, podendo ser um recurso valioso em várias áreas científicas. A importância das implementações em hardware deve-se à flexibilidade, maior desempenho e baixo consumo de energia. Para esta implementação foi utilizado o dispositivo FPGA Virtex II Pro XC2VP30 com um MicroBlaze soft core, da Xilinx. O MicroBlaze tem vantagens como a simplicidade no design, sua reutilização e fácil integração com outras tecnologias. A primeira fase do trabalho consistiu num estudo sobre o FPGA, um sistema reconfigurável que possui características importantes como a capacidade de executar em paralelo tarefas complexas. Em seguida, desenvolveu-se o código de implementação de uma Rede Neuronal Artificial baseado numa linguagem de programação de alto nível. Na implementação da Rede Neuronal aplicou-se, na camada escondida, a função de activação tangente hiperbólica, que serve para fornecer a não linearidade à Rede Neuronal. A implementação é feita usando um tipo de Rede Neuronal que permite apenas ligações no sentido de saída, chamado Redes Neuronais sem realimentação (do Inglês Feedforward Neural Networks - FNN). Como as Redes Neuronais Artificiais são sistemas de processamento de informações, e as suas características são comuns às Redes Neuronais Biológicas, aplicaram-se testes na implementação em hardware e analisou-se a sua importância, a sua eficiência e o seu desempenho. E finalmente, diante dos resultados, fez-se uma análise de abordagem e metodologia adoptada e sua viabilidade.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Com a realização deste trabalho pretendeu-se estabelecer o perfil urinário de níveis de biomarcadores do stress oxidativo (5-HMU; UAc; MDA; 8-OHdG) em indivíduos saudáveis (grupo controlo) comparando com o de doenças cardiovasculares (grupo CVD) de modo a avaliar o seu potencial como possíveis biomarcadores da possibilidade de ocorrência de CVD. A extração dos compostos alvos foi realizada por recurso a uma nova técnica extrativa - microextração com adsorvente empacotado em seringa (MEPS) controlada digitalmente (eVol). A análise dos biomarcadores foi efetuada por cromatografia líquida de ultra eficiência (UHPLC) utilizando como coluna analítica a HSS T3 (100 mm × 2,1 mm, 1,7 μm de tamanho da partícula) e com um sistema deteção de fotodiodos (PDA). Otimizaram-se os parâmetros experimentais com influência no processo extrativo, nomeadamente no que se refere ao tipo de adsorvente, á influência do pH, ao volume de amostra, ao número de ciclos extrativos, lavagem e ao volume de eluição. Foram ensaiadas diferentes condições experimentais e selecionadas as que corresponderam a uma maior eficiência extrativa, expressa pela área total relativa dos analitos e reprodutibilidade. Os melhores resultados foram obtidos usando como adsorvente C8, o pH da amostra ajustado a 6, o adsorvente foi carregado com 5x50 μL de amostra e a eluição com 1x50 μL de 0,01% ácido formico e 3x50 μL de 20% metanol. Para a separação cromatográfica dos analitos usou-se uma fase móvel binária (0,01% ácido fórmico:20% metanol), em modo isocrático e um fluxo de 250 μL min-1. O método analítico foi validado em termos de seletividade, linearidade, limite de deteção (LOD), limite de quantificação (LOQ), efeito matriz, exatidão e precisão (intra e interdias) e aplicada a determinação de biomarcadores alvo nos dois grupos estudados, obtiveram-se bons resultados em termos seletividade e linearidade (R2>0,9906), os valores de LOD e LOQ obtidos foram baixos, variando entre 0,00005 - 0,72 μg mL-1 e 0,00023 – 2,31 μg mL-1 respetivamente. Os resultados da percentagem de recuperação (91,06 – 123,02 %), precisão intra-dia (0,95 – 8,34 %), precisão inter-dia (4,58 -6,33 %) e o efeito de matriz (60,11 – 110,29 %) deste método foram satisfatórios. A aplicação da metodologia validada aos dois grupos em estudo permitiu concluir que as concentrações de UAc e MDA entre os dois grupos, contrariamente ao 5-HMU e ao 8- OhdG cujas concentrações são estatisticamente diferentes entre o grupo controlam e o grupo CVD.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Nowadays, the search for new technologies that are able to follow the upcoming challenges in oil industry is a constant. Always trying properties improvements of the used materials, looking for the best performance and greater life time. Besides the search for technologies that show an improvement of performance, the search for materials environmentally correct along the whole production process. In Oil well cementing, this search for new technologies passes through the development of slurry systems that support these requests and that are also environmentally friendly. In this context, the use of geopolymer slurries is a great alternative route to cementing oil wells. Besides having good properties, comparable to Portland cement slurries, this alternative material releases much less CO2 gas in the production of their root materials when compared the production of Portland cement, which releases tons of CO2. In order to improve the properties of geopolymer slurries has been added Calcium Oxide, as observed in other studies that slurries where the Calcium is present the values of compressive strength is greater. The addition has been realized based in the CaO/SiO2 molar ratio of 0.05, 0.10 and 0.15. Have been performed compressive strength tests, thickening time, rheology and fliud loss control test of the slurries, following NBR 9831, as well as the physical chemical characterization of XRD, SEM and TG. Has been observed in most of the tests the slurries follow a tendency until the ratio of 0.10, which inverses in the ratio 0.15. This behavior can be explained by two phenomena that occur simultaneously, the first one is the break of the polymer chains and a consequent increase in molucules mobility, which prevails until the ratio of 0.1, and the second is possible approach of the chains due to the capacity of the calcium ions stabilize the charges of two different aluminum. There is only one linearity in the mechanical behavior that can be attributed to the appereance of the C-S-H phase. Based on this, it is concluded that the phenomenon of breaking the polymer chains predominates until the ratio of 0.1, causing an increase of the filtrate volume, lower rheological parameters and increasing thickening time. From the ratio of 0.15 the approach of the chains predominates, and the behavior is reversed

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The oscillations presents in control loops can cause damages in petrochemical industry. Canceling, or even preventing such oscillations, would save up to large amount of dollars. Studies have identified that one of the causes of these oscillations are the nonlinearities present on industrial process actuators. This study has the objective to develop a methodology for removal of the harmful effects of nonlinearities. Will be proposed an parameter estimation method to Hammerstein model, whose nonlinearity is represented by dead-zone or backlash. The estimated parameters will be used to construct inverse models of compensation. A simulated level system was used as a test platform. The valve that controls inflow has a nonlinearity. Results and describing function analysis show an improvement on system response

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Objective: The aim of the study was to investigate physical characteristics and to examine association between somatotype and performance in collegiate runners of 100 m and 400 m. Methods: The sample, male runners (n=39) competing at the regional level in the state of Rio Grande do Norte, Brazil, had height, body mass, skinfolds, limb circumference and skeletal breadths measured. Then, the somatotype was calculated by Health-Carter method. Races (100 m and 400 m) were held to assess athletic performance. Descriptive statistics were calculated for the total sample, as well as for the 100 m and 400 m groups, and established four subgroups, named quartiles. For analysis between groups of runners (100 m x 400 m) was used Student's t test for independent samples. To examine the relationship between the race times and anthropometric variables, was used the Pearson correlation test. The somatotype dispersion distance and somatotype spatial distance were calculated among subgroups. One-way analysis of variance, the Wilcoxon test followed of Tukey post test, and correlation analysis were used with a significance level of p<0.05. Results: Somatotype with mesomorphy and ectomorphy dominance was exhibited by 100 m and 400 m athletes. Endomorphy was low in both groups, especially in 400m runners, who had more elongated body types than 100 m runners. When separately compared by athletic performance quartile, 100 m sprinters of better qualifications (G100-G1) had somatotype with dominant mesomorphy, whereas 400 m runners had somatotype with dominant ectomorphy. A significant correlation (r = -0.55, p=0.008) between calf circumference and 100 m race times was observed showing the importance of muscularity, whereas a significant correlation was found between height and 400 m race times (r = -0.53, p=0.02) showing the importance of linearity. Conclusion: Runners of 100 and 400 may show differences in physical characteristics, depending on the level of athletic performance. Anthropometric periodic evaluations may help in the training process of these athletes. However, more specific assessment parameters should be taken into account, because somatotype by itself has not power to predict whether an individual will succeed in racing speed

Relevância:

10.00% 10.00%

Publicador:

Resumo:

The ethanol is the most overused psychoactive drug over the world; this fact makes it one of the main substances required in toxicological exams nowadays. The development of an analytical method, adaptation or implementation of a method known, involves a process of validation that estimates its efficiency in the laboratory routine and credibility of the method. The stability is defined as the ability of the sample of material to keep the initial value of a quantitative measure for a defined period within specific limits when stored under defined conditions. This study aimed to evaluate the method of Gas chromatography and study the stability of ethanol in blood samples, considering the variables time and temperature of storage, and the presence of preservative and, with that check if the conditions of conservation and storage used in this study maintain the quality of the sample and preserve the originally amount of analyte present. Blood samples were collected from 10 volunteers to evaluate the method and to study the stability of ethanol. For the evaluation of the method, part of the samples was added to known concentrations of ethanol. In the study of stability, the other side of the pool of blood was placed in two containers: one containing the preservative sodium fluoride 1% and the anticoagulant heparin and the other only heparin, was added ethanol at a concentration of 0.6 g/L, fractionated in two bottles, one being stored at 4ºC (refrigerator) and another at -20ºC (freezer), the tests were performed on the same day (time zero) and after 1, 3, 7, 14, 30 and 60 days of storage. The assessment found the difference in results during storage in relation to time zero. It used the technique of headspace associated with gas chromatography with the FID and capillary column with stationary phase of polyethylene. The best analysis of chromatographic conditions were: temperature of 50ºC (column), 150ºC (jet) and 250ºC (detector), with retention time for ethanol from 9.107 ± 0.026 and the tercbutanol (internal standard) of 8.170 ± 0.081 minutes, the ethanol being separated properly from acetaldehyde, acetone, methanol and 2-propanol, which are potential interfering in the determination of ethanol. The technique showed linearity in the concentration range of 0.01 and 3.2 g/L (0.8051 x + y = 0.6196; r2 = 0.999). The calibration curve showed the following equation of the line: y = x 0.7542 + 0.6545, with a linear correlation coefficient equal to 0.996. The average recovery was 100.2%, the coefficients of variation of accuracy and inter intra test showed values of up to 7.3%, the limit of detection and quantification was 0.01 g/L and showed coefficient of variation within the allowed. The analytical method evaluated in this study proved to be fast, efficient and practical, given the objective of this work satisfactorily. The study of stability has less than 20% difference in the response obtained under the conditions of storage and stipulated period, compared with the response obtained at time zero and at the significance level of 5%, no statistical difference in the concentration of ethanol was observed between analysis. The results reinforce the reliability of the method of gas chromatography and blood samples in search of ethanol, either in the toxicological, forensic, social or clinic

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Compounded medicines have been reported by the ANVISA due to decreased of the therapeutic response or toxicity of these formulations. The aim of this work was to investigate the physicochemical quality control among naproxen sodium oral suspensions 25 mg/mL obtained from six compounding pharmacies (A, B, C, D, E and F) and the manufactured suspension (R). In the quality control test, the tests of pH, content, homogeneity, volume and physical and organoleptic characteristics were performed according to the Brazilian Pharmacopoeia. The analytical method for determination of naproxen in suspensions was validate. This method showed excellent precision, accuracy, linearity and specificity. In the content test the suspensions B, C and E showed lower value and the F suspension showed a high value of the content. The products C and E were disapproved in the description of the physical and organoleptic characteristics test. In the pH test, three suspensions were outside specifications (C, E and F). Only the products R, A and D showed satisfactory results in these tests and therefore they were approved for relative bioavailability test. The R, A and D suspensions were orally administered to Wistar rats and the blood samples were taken at time intervals of 10, 20, 40, 60 min, 3, 4, 6, 24 and 48 h. The plasma samples were immediately stored at 80 ºC until analysis of HPLC. The bioanalytical method validation showed specificity, linearity (R2 0.9987), precision, accuracy, good recovery and stability. The chromatographic conditions were: flow rate of 1.2 mL.min-1 with a mobile phase of acetonitrile : sodium phosphate buffer pH 4.0 (50:50, v/v) at 280 nm, using a C18 column. The confidence interval of 90% for the Cmax and AUCt ratio was within the range of 80 - 125% proposed by the FDA. Only one suspension, obtained from the compounding pharmacy D, was considered bioequivalent to the rate of absorption under the conditions proposed by this study. Thus, the results indicate the need for strict supervision from the relevant authorities to ensure the patient safety and the quality of compounded drugs by pharmacies

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Tuberculosis is a serious disease, but curable in practically 100% of new cases, since complied the principles of modern chemotherapy. Isoniazid (ISN), Rifampicin (RIF), Pyrazinamide (PYR) and Chloride Ethambutol (ETA) are considered first line drugs in the treatment of tuberculosis, by combining the highest level of efficiency with acceptable degree of toxicity. Concerning USP 33 - NF28 (2010) the chromatography analysis to 3 of 4 drugs (ISN, PYR and RIF) last in average 15 minutes and 10 minutes more to obtain the 4th drug (ETA) using a column and mobile phase mixture different, becoming its industrial application unfavorable. Thus, many studies have being carried out to minimize this problem. An alternative would use the UFLC, which is based with the same principles of HPLC, however it uses stationary phases with particles smaller than 2 μm. Therefore, this study goals to develop and validate new analytical methods to determine simultaneously the drugs by HPLC/DAD and UFLC/DAD. For this, a analytical screening was carried out, which verified that is necessary a gradient of mobile phase system A (acetate buffer:methanol 94:6 v/v) and B (acetate buffer:acetonitrile 55:45 v/v). Furthermore, to the development and optimization of the method in HPLC and UFLC, with achievement of the values of system suitability into the criteria limits required for both techniques, the validations have began. Standard solutions and tablets test solutions were prepared and injected into HPLC and UFLC, containing 0.008 mg/mL ISN, 0.043 mg/mL PYR, 0.030 mg.mL-1 ETA and 0.016 mg/mL RIF. The validation of analytical methods for HPLC and UFLC was carried out with the determination of specificity/selectivity, analytical curve, linearity, precision, limits of detection and quantification, accuracy and robustness. The methods were adequate for determination of 4 drugs separately without interfered with the others. Precise, due to the fact of the methods demonstrated since with the days variation, besides the repeatability, the values were into the level required by the regular agency. Linear (R> 0,99), once the methods were capable to demonstrate results directly proportional to the concentration of the analyte sample, within of specified range. Accurate, once the methods were capable to present values of variation coefficient and recovery percentage into the required limits (98 to 102%). The methods showed LOD and LOQ very low showing the high sensitivity of the methods for the four drugs. The robustness of the methods were evaluate, facing the temperature and flow changes, where they showed robustness just with the preview conditions established of temperature and flow, abrupt changes may influence with the results of methods

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Bioidentical hormones are defined as compounds that have exactly the same chemical and molecular structure as hormones that are produced in the human body. It is believed that the use of hormones may be safer and more effective than the non-bioidentical hormones, because binding to receptors in the organism would be similar to the endogenous hormone. Bioidentical estrogens have been used in menopausal women, as an alternative to traditional hormone replacement therapy. Thermal data of these hormones are scarce in literature. Thermal analysis comprises a group of techniques that allows evaluating the physical-chemistry properties of a drug, while the drug is subjected to a controlled temperature programming. The thermal techniques are used in pharmaceutical studies for characterization of drugs, purity determination, polymorphism identification, compatibility and evaluation of stability. This study aims to characterize the bioidentical hormones estradiol and estriol through thermal techniques TG/DTG, DTA, DSC, DSC-photovisual. By the TG curves analysis was possible to calculated kinetic parameters for the samples. The kinetic data showed that there is good correlation in the different models used. For both estradiol and estriol, was found zero order reaction, which enabled the construction of the vapor pressure curves. Data from DTA and DSC curves of melting point and purity are the same of literature, showed relation with DSC-photovisual results. The analysis DTA curves showed the fusion event had the best linearity for both hormones. In the evaluation of possible degradation products, the analysis of the infrared shows no degradation products in the solid state