985 resultados para Alsina, Adolfo
Resumo:
Background: Fentanyl is widely used off-label in NICU. Our aim was to investigate its cerebral, cardiovascular and pulmonary effects as well as pharmacokinetics in an experimental model for neonates. Methods: Fentanyl (5 mu g/kg bolus immediately followed by a 90 minute infusion of 3 mu g/kg/h) was administered to six mechanically ventilated newborn piglets. Cardiovascular, ventilation, pulmonary and oxygenation indexes as well as brain activity were monitored from T = 0 up to the end of experiments (T = 225-300 min). Also plasma samples for quantification of fentanyl were drawn. Results: A "reliable degree of sedation" was observed up to T = 210-240 min, consistent with the selected dosing regimen and the observed fentanyl plasma levels. Unlike cardiovascular parameters, which were unmodified except for an increasing trend in heart rate, some of the ventilation and oxygenation indexes as well as brain activity were significantly altered. The pulmonary and brain effects of fentanyl were mostly recovered from T = 210 min to the end of experiment. Conclusion: The newborn piglet was shown to be a suitable experimental model for studying fentanyl disposition as well as respiratory and cardiovascular effects in human neonates. Therefore, it could be extremely useful for further investigating the drug behaviour under pathophysiological conditions.
Resumo:
133 p. + anexos
Resumo:
O presente estudo objetiva analisar o impacto da adoção da norma internacional de contabilidade (IFRS) no Brasil na comparabilidade entre as normas contábeis (IFRS International Financial Reporting Standards e BRGAAP Brazilian Generally Accepted Accounting Principles) e a relevância das informações geradas pela contabilidade na tomada de decisões pelos investidores. Como um objetivo secundário, busca identificar quais mudanças (CPCs Comitê de Pronunciamentos Contábeis) foram mais significativas (e frequentes) para as contas contábeis e os indicadores financeiros com o propósito de avaliar os efeitos na comparabilidade das demonstrações financeiras das companhias brasileiras listadas na Bolsa de Valores de São Paulo (IBOVESPA). Utilizou-se a ferramenta estatística de teste de médias, onde as hipóteses formuladas a serem testadas foram elaboradas a partir do levantamento do referencial teórico. A pesquisa constatou que os números contábeis das empresas listadas no IBOVESPA diferem significativamente e de forma positiva, quando aplicadas as normas internacionais de contabilidade em vez de aplicar a norma contábil brasileira (BRGAAP), assim como verificado em outros países. Também foi constatado que o padrão de contabilidade IFRS apresenta maior relevância contábil que a norma brasileira, uma vez que os dados contábeis se mostraram mais próximos aos valores de mercado. A pesquisa verificou nos relatórios contábeis das empresas inconsistências quanto à adoção das novas normas e, também, consideráveis variações nas formas de divulgação das informações. Além de ter identificado as normas (CPC 13, CPC 15 e CPC 27) que provocaram efeitos mais significativos em termos de valores e de frequência. Conclui-se com este estudo que as demonstrações financeiras sofrem impactos significativos ao se analisar os dois padrões contábeis em tela e que as demonstrações financeiras sob o padrão internacional apresentam maior relevância contábil que a norma de contabilidade brasileira. Ao fim do estudo, sugere-se que sejam aplicados outros testes estatísticos de análise multivariada dos dados financeiros com o intuito de se analisar simultaneamente o impacto de outras variáveis na comparabilidade e na relevância contábil.
Resumo:
Myotonic dystrophy type 1 (DM1 or Steinert's disease) and type 2 (DM2) are multisystem disorders of genetic origin. Progressive muscular weakness, atrophy and myotonia are the most prominent neuromuscular features of these diseases, while other clinical manifestations such as cardiomyopathy, insulin resistance and cataracts are also common. From a clinical perspective, most DM symptoms are interpreted as a result of an accelerated aging (cataracts, muscular weakness and atrophy, cognitive decline, metabolic dysfunction, etc.), including an increased risk of developing tumors. From this point of view, DM1 could be described as a progeroid syndrome since a notable age dependent dysfunction of all systems occurs. The underlying molecular disorder in DM1 consists of the existence of a pathological (CTG) triplet expansion in the 3' untranslated region (UTR) of the Dystrophia ll/Iyotonica Protein Kinase (DMPK) gene, whereas (CCTG)n repeats in the first intron of the Cellular Nucleic acid Binding Protein/Zinc Finger Protein 9 (CNBP/ZNF9) gene cause DM2. The expansions are transcribed into (CUG)n and (CCUG)n-containing RNA, respectively, which form secondary structures and sequester RNA binding proteins, such as the splicing factor muscleblind-like protein (MBNL), forming nuclear aggregates known as foci. Other splicing factors, such as CUGBP, are also disrupted, leading to a spliceopathy of a large number of downstream genes linked to the clinical features of these diseases. Skeletal muscle regeneration relies on muscle progenitor cells, known as satellite cells, which are activated after muscle damage, and which proliferate and differentiate to muscle cells, thus regenerating the damaged tissue. Satellite cell dysfunction seems to be a common feature of both age-dependent muscle degeneration (sarcopenia) and muscle wasting in DM and other muscle degenerative diseases. This review aims to describe the cellular, molecular and macrostructural processes involved in the muscular degeneration seen in DM patients, highlighting the similarities found with muscle aging.
Resumo:
Single-chain technology (SCT) allows the transformation of individual polymer chains to folded/collapsed unimolecular soft nanoparticles. In this work we contribute to the enlargement of the SCT toolbox by demonstrating the efficient synthesis of single-chain polymer nanoparticles (SCNPs) via intrachain amide formation. In particular, we exploit cross-linking between active methylene groups and isocyanate moieties as powerful "click" chemistry driving force for SCNP construction. By employing poly(methyl methacrylate)- (PMMA-) based copolymers bearing beta-ketoester units distributed randomly along the copolymer chains and bifunctional isocyanate cross-linkers, SCNPs were successfully synthesized at r.t. under appropriate reaction conditions. Characterization of the resulting SCNPs was carried out by means of a combination of techniques including size exclusion chromatography (SEC), infrared (IR) spectroscopy, proton nuclear magnetic resonance (H-1 NMR) spectroscopy, dynamic light scattering (DLS), and elemental analysis (EA).
Resumo:
Simulations based on a yield-per-recruit model were performed to analyze the impact ofg rowth overfishing on brown shrimp, Penaeus aztecus, and to assess the effects of a closed season inshore and offshore of the Mexican States of Tamaulipas and Veracruz. Closure of both the inshore and offshore fisheries could enhance cohort yield by more than 300%. Cohon yield enhancement would be only about 60-80% if only the offshore season were closed. The closed season of 1993 gave better results as it covered a larger part of the brown shrimp peak recruitment period. Catch per unit of effort (CPUE) after closure in 1993, compared with 1994, was 2.4 times higher than the mean CPUE of the month. Total annual offshore yield increased 72% in 1993 (3,800 metric tons (t)) and 10% in 1994 (506 t) with respect to the mean annual offshore catch during the 10-year period prior to the 1993 closure. Simulation results could help identify alternatives that permit the coexistence of the inshore and offshore fisheries while maintaining high profitability of the brown shrimp fishery.
Resumo:
As biometrias vêm sendo utilizadas como solução de controle de acesso a diversos sistemas há anos, mas o simples uso da biometria não pode ser considerado como solução final e perfeita. Muitos riscos existem e não devem ser ignorados. A maioria dos problemas está relacionada ao caminho de transmissão entre o local onde os usuários requerem seus acessos e os servidores onde são guardados os dados biométricos capturados em seu cadastro. Vários tipos de ataques podem ser efetuados por impostores que desejam usar o sistema indevidamente. Além dos aspectos técnicos, existe o aspecto social. É crescente a preocupação do usuário tanto com o armazenamento quanto o uso indevido de suas biometrias, pois é um identificador único e, por ser invariável no tempo, pode ser perdido para sempre caso seja comprometido. O fato de que várias empresas com seus diferentes servidores guardarem as biometrias está causando incomodo aos usuários, pois as torna mais suscetíveis à ataques. Nesta dissertação, o uso de cartões inteligentes é adotado como possível solução para os problemas supracitados. Os cartões inteligentes preparados para multi-aplicações são usados para realizar as comparações biométricas internamente. Dessa forma, não seria mais necessário utilizar diversos servidores, pois as características biométricas estarão sempre em um único cartão em posse do dono. Foram desenvolvidas e implementadas três diferentes algoritmos de identificação biométrica utilizando diferentes características: impressão digital, impressão da palma da mão e íris. Considerando a memória utilizada, tempo médio de execução e acurácia, a biometria da impressão da palma da mão obteve os melhores resultados, alcançando taxas de erro mínimas e tempos de execução inferiores a meio segundo.
Resumo:
Neste trabalho, utilizamos o formalismo de teorias quânticas de campos a temperatura finita, tal como desenvolvidas por Matsubara, aplicado a uma hamiltoniana de N campos escalares com autointeração quártica a N grande. Obtém-se uma expressão, na primeira aproximação quântica, para o coeficiente do termo quadrático da hamiltoniana ("massa quadrada"), renormalizado, como função da temperatura. A partir dela, estudamos o processo de quebra espontânea de simetria. Por outro lado, a mesma hamiltoniana é conhecida como modelo de Ginzburg-Landau na literatura de matéria condensada, e que permite o estudo de transições de fase em materiais ferromagnéticos. A temperatura é introduzida através do termo quadrático na hamiltoniana, de forma linear: é proporcional à diferença entre a variável de temperatura e a temperatura crítica. Tal modelo, porém, possui validade apenas na regi~ao de temperaturas próximas à criticalidade. Como resultado de nossos cálculos na teoria de campos a temperatura finita, observamos que, numa faixa de valores em torno da temperatura crítica, a massa quadrática pode ser aproximada por uma relação linear em relação à variável de temperatura. Isso evidencia a compatibilidade da abordagem de Ginzburg-Landau, na vizinhança da criticalidade, com respeito ao formalismo de campos a temperatura finita. Discutimos também os efeitos causados pela presença de um potencial químico no sistema.
Resumo:
Instrumentos financeiros híbridos e/ou compostos têm sido tema constante em matéria de regulação contábil. A literatura positiva apresenta uma hipótese que ajuda a compreender o porquê de algumas firmas recorrerem a ditos instrumentos para captar recursos: nível de endividamento no limite de quebra de covenants contratuais. No Brasil, firmas com registro na CVM, que se utilizaram desses instrumentos, classificando-os no patrimônio líquido, tiveram suas ITRs e/ou DFs reapresentadas e/ou republicadas por determinação da CVM. O ponto crítico de toda a discussão reside na distinção entre um item de passivo e um item de patrimônio líquido. Esse tema está disciplinado na IAS 32 (PT CPC n. 39) e presente no Discussion Paper - A review of the conceptual framework for financial reporting, emitido pelo IASB em julho de 2013, que apresenta duas abordagens que podem ser utilizadas, visando a simplificar a distinção entre um item de passivo e de patrimônio líquido: a narrow equity approach - NEA e a strict obligation approach - SOA. A adoção de cada uma dessas abordagens terá um impacto diferente nos níveis de endividamento/alavancagem e no potencial de diluição de participação dos acionistas. Este trabalho tem como objetivo investigar abordagens para a classificação contábil das debêntures mandatoriamente conversíveis em ações, vis-à-vis a IAS 32 (PT CPC n. 39) e o Discussion Paper do IASB (NEA x SOA). A metodologia adotada é um estudo de caso de uma companhia aberta brasileira, que em 2010 emitiu debêntures mandatoriamente conversíveis e efetuou uma classificação desses instrumentos considerada inadequada pelo órgão regulador. Observa-se que a strict obligation approach é a abordagem que impacta menos no nível de endividamento, enquanto a narrow equity approach é a que apresenta maior alavancagem. As evidências sugerem os covenants contratuais como possíveis indutores de tal prática, fato que está em linha com o que a literatura da área documenta como fenômeno esperado. É bem verdade que no caso concreto, houve quebra contínua de covenants contratuais, corroborando a hipótese apresentada por SILVA (2008) de que o baixo custo de violação de covenants contribua para tal situação. Alternativamente, uma possível explicação para a escolha contábil da companhia reside na complexidade da IAS 32 (PT CPC 39) e desconhecimento de suas nuances.
Resumo:
Esta dissertação pretende fornecer uma contribuição acadêmica aos estudos sobre harmonização contábil em blocos econômicos. A pesquisa teve como objetivo analisar o processo de harmonização contábil nos seis países integrantes do MERCOSUL, após a refundação do IASB, em 2001. A metodologia do estudo tem caráter descritivo e natureza analítica, visando descrever as características qualitativas em relação aos aspectos contábeis e regulatórios dos países estudados. Foi realizada uma pesquisa documental em que foram analisados os relatórios sobre harmonização contábil no MERCOSUL e o método aplicado foi o de estudo de múltiplos casos. Os documentos analisados foram: (a) Report on the Observance of Standards and Codes Auditing and Accounting (ROSC A&A), do Banco Mundial; (b) relatório enviado pelos países ao IASB; (c) relatório enviado pelos países ao GLENIF, além das informações disponíveis nos sites oficiais dos próprios países. A pesquisa contribui para resgatar a história do processo de harmonização e alertar para os potenciais impactos das diferenças na preparação dos balanços das empresas que compõem o bloco.
Resumo:
O atendimento às informações obrigatórias que integram pronunciamentos emitidos por órgãos normativos vem sendo tema de estudos nacionais e internacionais, que buscam identificar os níveis de divulgação de determinados mercados ou setores da economia. Alinhado a este cenário, o objetivo do presente estudo é analisar o nível de evidenciação das demonstrações financeiras divulgadas no ano de 2012 pelas empresas listadas na Bolsa de Valores, Mercadorias e Futuros de São Paulo (BM&FBOVESPA) em relação aos requisitos exigidos no CPC 27, que estabelece o tratamento contábil para ativos imobilizados. Foi elaborado um índice para apurar o nível de cumprimento da divulgação, denominado de Índice de Não Divulgação (IND) que obteve 32,9% como resultado. Para identificar as características que poderiam influenciar o índice encontrado, foram desenvolvidas hipóteses atreladas ao porte da empresa, à emissão de American Depositary Receipt (ADR), à empresa de auditoria prestadora do serviço e ao segmento de mercado. Os testes de diferenças de média apontaram que todas as características utilizadas podem explicar o cumprimento das informações obrigatórias para ativo imobilizado. Para se alcançar o pleno atendimento aos requisitos obrigatórios, as empresas demandam um período de adequação, bem como para os reguladores do mercado ampliarem a orientação e fiscalização, adquirindo a confiabilidade das informações divulgadas.
Resumo:
As simulações computacionais tem sido amplamente empregadas no estudo do escoamento darciano e não-darciano em meios porosos consolidados e não-consolidados. Neste trabalho, através de uma nova formulação para a equação de Forchheimer, foram identificadas duas novas propriedades denominados fator de comportamento do fluido, que atua paralelamente a permeabilidade, e permeabilidade equivalente global, resultado da relação anterior. Este comportamento foi estudado e validado através da implementação de um aparato experimental e um código computacional baseado no modelo de regressão-linear que, além disso, demonstrou que o escoamento, ainda que em regime não darciano, comporta-se linearmente como a equação de Darcy, ainda que o coeficiente angular desta diminuiu de acordo com a faixa do número de Reynolds atingida, sendo esta dependente do tipo de leito empregado. Ainda neste trabalho, foi implementado o método de otimização R2W para estimar os parâmetros da equação de Kozeny-Carman a partir de dados experimentais obtidos por Dias et al, a fim de simular o escoamento darciano em meios porosos. Por fim, foi alcançada excelente concordância entre os dados simulados pelo método R2W / equação de Kozeny-Carman e os dados reais.
Resumo:
1985
Resumo:
A computer may gather a lot of information from its environment in an optical or graphical manner. A scene, as seen for instance from a TV camera or a picture, can be transformed into a symbolic description of points and lines or surfaces. This thesis describes several programs, written in the language CONVERT, for the analysis of such descriptions in order to recognize, differentiate and identify desired objects or classes of objects in the scene. Examples are given in each case. Although the recognition might be in terms of projections of 2-dim and 3-dim objects, we do not deal with stereoscopic information. One of our programs (Polybrick) identifies parallelepipeds in a scene which may contain partially hidden bodies and non-parallelepipedic objects. The program TD works mainly with 2-dimensional figures, although under certain conditions successfully identifies 3-dim objects. Overlapping objects are identified when they are transparent. A third program, DT, works with 3-dim and 2-dim objects, and does not identify objects which are not completely seen. Important restrictions and suppositions are: (a) the input is assumed perfect (noiseless), and in a symbolic format; (b) no perspective deformation is considered. A portion of this thesis is devoted to the study of models (symbolic representations) of the objects we want to identify; different schemes, some of them already in use, are discussed. Focusing our attention on the more general problem of identification of general objects when they substantially overlap, we propose some schemes for their recognition, and also analyze some problems that are met.
Resumo:
Methods are presented (1) to partition or decompose a visual scene into the bodies forming it; (2) to position these bodies in three-dimensional space, by combining two scenes that make a stereoscopic pair; (3) to find the regions or zones of a visual scene that belong to its background; (4) to carry out the isolation of objects in (1) when the input has inaccuracies. Running computer programs implement the methods, and many examples illustrate their behavior. The input is a two-dimensional line-drawing of the scene, assumed to contain three-dimensional bodies possessing flat faces (polyhedra); some of them may be partially occluded. Suggestions are made for extending the work to curved objects. Some comparisons are made with human visual perception. The main conclusion is that it is possible to separate a picture or scene into the constituent objects exclusively on the basis of monocular geometric properties (on the basis of pure form); in fact, successful methods are shown.