33 resultados para Severo Sarduy

em Lume - Repositório Digital da Universidade Federal do Rio Grande do Sul


Relevância:

10.00% 10.00%

Publicador:

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Resumo não disponível.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Trezentos pacientes portadores de colonização intracavitária pulmonar (pelos exames soro lógico e/ou tecidual) foram investigados num período de 10 anos. Os casos foram classificados como: Aspergillus fumigatus (246 casos); Ao niger (21 casos); A. flavus (7 casos); Pseudallescheria boydii (1 caso); colonização fúngica não especificada (21 casos) e colonização actinomicética (4 casos). os grupos A. niger (çasos)e A. fumigatus (controles) foram comparados a respeito de variáveis clínicas e laboratoriais, por serem os mais freqUentes e pela pobreza da literatura sobre A. niger. Esta análise mostrou associações estatisticamente significativas com o A. niger para;sexo masculino (Razão de Chances = 3,28; p <0,05); infecção nosocomial, ocorrendo em hospitais de conservação precária (RC = 150,8; p< 0,001); tuberculose ativa (RC = 8,03; P <0,001); diabete mélito tipo 11 (RC = 10,67; p

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Os primeiros estudos sobre previsão de falência foram elaborados por volta da década de 30. Entretanto, o assunto só ganhou impulso a partir da utilização de técnicas estatísticas, ao longo dos anos 60. No Brasil, os primeiros trabalhos sobre o assunto datam dos anos 70. A esse respeito, vale destacar que a técnica estatística empregada em grande parte destes estudos foi a análise discriminante linear multivariada. Na tentativa de contribuir para o tema, este trabalho se propõs a testar um modelo de previsão de concordatas de empresas de capital aberto, a partir da modelagem desenvolvida por Cox (1972). Esse modelo se diferencia daqueles estimados a partir de técnicas logit, probit e análise discriminante na medida em que fornece não apenas a probabilidade de que um determinado evento ocorra no futuro, mas também uma estimativa do tempo até sua ocorrência. A análise dos resultados demonstrou que é possível identificar, antecipadamente, o risco de concordata de uma empresa de capital aberto. Nesse sentido, acredita -se que o modelo de Cox possa ser utilizado como auxiliar na previsão de concordatas de companhias abertas operando na Bolsa de Valores de São Paulo – Bovespa.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Este trabalho analisa o impacto do Programa de Qualidade Total no Controle Organizacional da Cooperativa Regional Tritícola Serrana Ltda – COTRIJUÍ - Unidade de Dom Pedrito, RS. Tomou-se por base a abordagem estruturalista, tratando-se dos aspectos contingenciais sistêmicos de coordenação e controle. Adotou-se a classificação dada por Mintzberg (1995): ajustamento mútuo, supervisão direta e a padronização (habilidades, processos de trabalho e resultados), que foram analisados nos níveis técnico, gerencial e de diretoria. A COTRIJUÍ/Dom Pedrito, RS, unidade da COTRIJUÍ/Ijuí, é uma organização cooperativa que atua na área de recebimento, de secagem, de armazenagem, de industrialização e de comercialização de arroz beneficiado e seus sub-produtos. O método do estudo de caso caracteriza esta pesquisa. Os dados, coletados através de entrevista semiestruturada, contatos informais, análise documental e observação direta, foram interpretados de forma qualitativa. Dentre os resultados encontrados, a COTRIJUÍ/Dom Pedrito vem buscando ajustar sua estrutura às contingências do ambiente participando da dinâmica da competição instável e imprevisível, passando pelo desafio da conquista de mercados e da No nível técnico, o maior efeito se deu no mecanismo de PADRONIZAÇÃO DO PROCESSO DE TRABALHO, que passou a ser mais utilizado. A SUPERVISÃO DIRETA, porém, mesmo depois da introdução do Programa de Qualidade Total, permaneceu inalterada, tornando os demais mecanismos menos importantes, uma vez que o superior hierárquico manteve-se com o poder de controlar seus subordinados. No gerencial, a PADRONIZAÇÃO DAS HABILIDADES se apresentou como sendo o mecanismo mais utilizado, seguido da PADRONIZAÇÃO DO PROCESSO DE TRABALHO que também se intensificou, uma vez que houve um aumento significativo dos controles dos processos. No nível de diretoria, antes da introdução do Programa de Qualidade Total, a SUPERVISÃO DIRETA era o mecanismo que caracterizava este nível, já que a tomada de decisão era centralizada na pessoa do gerente geral que decidia todas as questões referentes à unidade. Com a constituição do Comitê de Crédito e a introdução do Programa de Qualidade Total o AJUSTAMENTO MÚTUO passou a ser praticamente o único mecanismo utilizado.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Esta dissertação apresenta uma abordagem para inserção e aplicação da técnica de Simulação Computacional como ferramenta de apoio a análise de decisão no setor hospitalar. Um grupo de onze hospitais foi contemplado diretamente no estudo. O processo de inserção da ferramenta foi implementado em quatro macro etapas. As duas primeiras etapas envolveram a totalidade do grupo de hospitais e objetivaram a divulgação da ferramenta; foram elas: (i) Pesquisa para diagnosticar o conhecimento e interesse do grupo na técnica, e (ii) realização de seminários para divulgação da técnica. As duas macro etapas finais caracterizam um estudo de caso, tendo sido desenvolvidas em um hospital; foram elas: (iii) Estudo-Piloto com desenvolvimento de um modelo computacional utilizando um software dedicado, no qual o grupo do hospital foi treinado, e (iv) utilização do modelo na definição das características de um novo serviço de atendimento. Durante todo o processo onze hospitais participaram da pesquisa realizada, aproximadamente cem pessoas assistiram a pelo menos um dos seminários e um hospital desenvolveu um estudo aplicado de simulação. Neste estudo a simulação foi utilizada para analisar alternativas para uma situação específica no hospital e um novo serviço alternativo foi criado a partir da análise realizada e do modelo desenvolvido. O resultado decorrente da simulação foi implementado na prática. Pode-se constatar neste trabalho o grande interesse dos hospitais em técnicas que auxiliem a tomada de decisão.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

A fenilcetonúria (PKU) é um erro inato do metabolismo de aminoácidos causada pela deficiência da enzima fenilalanina hidroxilase hepática (PAH) que converte fenilalanina (Phe) em tirosina. Caracteriza-se clinicamente por retardo mental severo e, em alguns pacientes, por convulsões e eczema cutâneo. Bioquimicamente os pacientes afetados por esta doença apresentam acúmulo de Phe e seus metabólitos no sangue e nos tecidos. Phe é considerada o principal agente neurotóxico nesta doença, cujos mecanismos de neurotoxicidade são pouco conhecidos. O metabolismo energético cerebral é caracterizado por níveis altos e variáveis de síntese e de utilização de ATP. O cérebro contém altos níveis de creatinaquinase (CK), uma enzima que transferere reversivelmente um grupo fosforil entre ATP e creatina e entre ADP e fosfocreatina (PCr). Considerando que a CK parece estar envolvida em certas condições patológicas relacionadas com deficiência de energia cerebral e sabendo que a PKU está associada à redução de produção e de utilização de energia pelo cérebro, no presente trabalho verificamos a atividade da CK em homogeneizado total de córtex cerebral, cerebelo e cérebro médio de ratos Wistar submetidos aos modelos experimentais agudo e crônico de hiperfenilalaninemia (HPA) quimicamente induzida. Também investigamos o efeito in vitro da Phe e da α-metil-DL-fenilalanina (MePhe), um inibidor da PAH, nas mesmas estruturas de ratos Wistar de 22 dias de idade não tratados. Nossos resultados mostraram uma redução significativa na atividade da CK nas estruturas cerebrais estudadas de ratos sujeitos a HPA. Também verificamos que Phe e MePhe inibiram in vitro a atividade da CK nas mesmas estruturas. O estudo da interação cinética entre Phe e MePhe, sugere a existência de um único sítio de ligação na CK para os dois compostos. Considerando a importância da CK para a manutenção do metabolismo energético cerebral, nossos resultados sugerem que a alteração da homeostasia energética pode contribuir para a neurotoxicidade da Phe na PKU.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

As acidúrias L-2-hidroxiglutárica (LHGA) e D-2-hidroxiglutárica (DHGA) são distúrbios neurometabólicos hereditários caracterizados por extenso e severo dano cerebral, ocasionando predominantemente convulsões, coma e atrofia cerebral. Na LHGA, as lesões cerebrais ocorrem principalmente no cerebelo enquanto a maior parte do cérebro é afetada na DHGA. Além disso, hipotonia, fraqueza e hipotrofia muscular, bem como cardiomiopatia têm sido observadas nos pacientes afetados por essas acidemias orgânicas, com maior freqüência na DHGA. Bioquimicamente, ocorre acúmulo tecidual dos ácidos L- 2-hidroxiglutárico (LGA) e D-2-hidróxiglutárico (DGA), respectivamente, na LHGA e na DHGA. Além disso, elevadas concentrações urinárias de lactato, 2-cetoglutarato e outros metabólitos do ciclo de Krebs têm sido descritas em pacientes acometidos por essas patologias, sugerindo uma disfunção mitocondrial. mitocondrial. Tendo em vista que a etiopatogenia da disfunção tecidual nesses pacientes é desconhecida, o presente trabalho investigou o efeito in vitro dos ácidos LGA e DGA sobre diversos parâmetros do metabolismo energético celular. Inicialmente, avaliamos o efeito dos ácidos DGA e LGA sobre a utilização de glicose e produção de CO2 em homogeneizados e fatias de córtex cerebral. Verificamos que o DGA reduziu significativamente tanto o consumo de glicose quanto a produção de CO2 pelo córtex cerebral, enquanto o LGA não demonstrou efeito sobre esses parâmetros. Além disso, o DGA inibiu significativamente a atividade da citocromo c oxidase em homogeneizado de córtex cerebral de ratos (35-95%), de forma dose-dependente, sem alterar a atividade dos demais complexos da cadeia respiratória. A inibição verificada foi do tipo acompetitiva. Por outro lado, o LGA não alterou a atividade de nenhum dos complexos enzimático estudados. Posteriormente, avaliamos o efeito in vitro dos ácidos DGA e LGA sobre a atividade da creatina quinase (CK) em homogeneizado total e nas frações citosólica e mitocondrial de tecido cerebral, muscular esquelético e cardíaco de ratos. Os resultados mostraram que o DGA inibiu significativamente a atividade das isoformas mitocondrial e citosólica da CK em preparações de córtex cerebral, músculo esquelético de cardíaco. Por outro lado, tanto DGA quanto LGA inibiram seletivamente a isoforma mitocondrial em preparações de cerebelo. Estudos cinéticos mostraram um perfil não competitivo de inibição com relação à fosfocreatina para ambos os ácidos nos tecidos estudados. Além IV disso, observamos também que o efeito inibitório de ambos os ácidos foi totalmente revertido por glutationa reduzida, sugerindo uma modificação causada pelos metabólitos sobre os grupos sulfidrila, essenciais para a atividade da enzima. Nossos resultados sugerem que a inibição significativa causada pelo DGA sobre as atividades da citocromo c oxidase e da creatina quinase no córtex cerebral, assim como nos músculos cardíaco e esquelético poderiam explicar, ao menos em parte, a fisiopatogenia da disfunção neurológica e anormalidades estruturais no sistema nervoso central, bem como a mitocondriopatia esquelética e a cardiomiopatia presente nos pacientes afetados por DHGA. Por outro lado, é possível que a inibição seletiva da creatina quinase mitocondrial provocada pelo LGA em cerebelo possa estar associada à degeneração cerebelar característica dos pacientes com LHGA.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

O desenvolvimento de artefatos de software é um processo de engenharia, como todo processo de engenharia, envolve uma série de etapas que devem ser conduzidas através de uma metodologia apropriada. Para que um determinado software alcance seus objetivos, as características conceituais e arquiteturais devem ser bem definidas antes da implementação. Aplicações baseadas em hiperdocumentos possuem uma característica específica que é a definição de seus aspectos navegacionais. A navegação é uma etapa crítica no processo de definição de softwares baseados em hiperdocumentos, pois ela conduz o usuário durante uma sessão de visita ao conteúdo de um site. Uma falha no processo de especificação da navegação causa uma perda de contexto, desorientando o usuário no espaço da aplicação. Existem diversas metodologias para o tratamento das características de navegação de aplicações baseadas em hiperdocumentos. As principais metodologias encontradas na literatura foram estudadas e analisadas neste trabalho. Foi realizada uma análise comparativa entre as metodologias, traçando suas abordagens e etapas. O estudo das abordagens de especificação de hiperdocumentos foi uma etapa preliminar servindo como base de estudo para o objetivo deste trabalho. O foco é a construção de uma ferramenta gráfica de especificação conceitual de hiperdocumentos, segundo uma metodologia de modelagem de software baseado em hiperdocumentos. O método adotado foi o OOHDM (Object-Oriented Hypermedia Design Model), por cercar todas as etapas de um processo de desenvolvimento de aplicações, com uma atenção particular à navegação. A ferramenta implementa uma interface gráfica onde o usuário poderá modelar a aplicação através da criação de modelos. O processo de especificação compreende três modelos: modelagem conceitual, modelagem navegacional e de interface. As características da aplicação são definidas em um processo incremental, que começa na definição conceitual e finaliza nas características de interface. A ferramenta gera um protótipo da aplicação em XML. Para a apresentação das páginas em um navegador Web, utilizou-se XSLT para a conversão das informações no formato XML para HTML. Os modelos criados através das etapas de especificação abstrata da aplicação são exportados em OOHDM-ML. Um estudo de caso foi implementado para validação da ferramenta. Como principal contribuição deste trabalho, pode-se citar a construção de um ambiente gráfico de especificação abstrata de hiperdocumentos e um ambiente de implementação de protótipos e exportação de modelos. Com isso, pretende-se orientar, conduzir e disciplinar o trabalho do usuário durante o processo de especificação de aplicações.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Formular hipóteses a partir da observação e testá-las através da experimentação caracteriza o método baconiano; a formulação inicial explicitamente era fruto de um insight intuitivo, que Francis Bacon denominou indução. A objetividade está no início do processo do conhecimento, basta o cientista deixar os fatos falarem por si enquanto lê o livro aberto da natureza. Uma forma mais sofisticada de indutivismo faz distinção entre contexto da descoberta e contexto da justificação para separar a questão de como as teorias científicas são desenvolvidadas da questão de como testá-las contra suas rivais. Karl Popper, discordando desta atitude, vai atribuir o primeiro ao acaso e para o segundo assumirá uma epistemologia evolucionista. Popper, não acreditando na possibilidade da existência de um critério de verdade, propõe um critério de falsificabilidade. O conhecimento não se daria por generalizações a partir da experiência, mas pela elaboração de conjeturas de alto conteúdo empírico que seriam submetidas à lógica dedutiva (baseado no modus tolles) e experimentação. Popper, por influência humeana, nega qualquer papel da indução na aquisição do conhecimento, que não partiria de percepções, de observações nem do acúmulo de dados ou fatos, mas sim de problemas. Na ausência de critério conclusivo de verdade empírica, só nos resta aprender com nossos erros. O progresso do conhecimento adviria da refutação de uma hipótese e da procura de outra com maior conteúdo explicativo e que pudesse evitar ao menos algumas das falhas da hipótese anterior. Este seria o critério de progresso científico. O problema do falsificacionismo de Popper é que o cientista não persegue teorias para provar que são falsas, mas teorias que procura demonstrar verdadeiras. Popper nos diz qual seria o ideal da ciência, mas não de como ela é praticada. Tomados isoladamente, tanto o indutivismo como o método hipotético-dedutivo são simplistas e ingênuos. O primeiro é cego, não direciona a experimentação pela hipótese teórica. O segundo tem direcionamento teórico, mas não dá conta da geração da hipótese. Como ambos estão do mesmo lado na descrição da relação do experimento e da teoria, isto torna frutífera a interação destas duas vias. É tematizada a teoria dos germes e a descoberta da penicilina como exemplo desta abordagem em biologia.

Relevância:

10.00% 10.00%

Publicador:

Resumo:

Foram avaliadas a resposta periodontal, clínica e histologicamente, a procedimentos restauradores subgengivais com amálgama de prata (Am), cimento de ionômero de vidro (CIV) e sítios controle não restaurados (CT), em um período de 120 dias, em 3 cães suscetíveis à doença periodontal. Após 4 meses de uma raspagem e alisamento supragengival, foram realizados retalhos totais seguidos de raspagem e alisamento radicular em pré-molares apresentando perda de inserção e sinais inflamatórios. Cavidades radiculares experimentais foram restauradas com Am ou CIV. Durante os 3 meses do pós-operatório os quadrantes 2 e 3 receberam controle mecânico de placa (c/ct). Previamente às restaurações e ao final do período experimental, foram anotados os índices de placa visível (IPV), sangramento gengival (ISG), sangramento à sondagem (SS), profundidade de sondagem (PS), perda de inserção (PI) e distância da margem gengival à uma marca referência na coroa (DMM). Nove dentes foram restaurados com Am, 11 com CIV, e 10 serviram como controles. Após processamento, em espécimes representativos, foram avaliados histologicamente o grau de inflamação no conjuntivo, integridade e posição do epitélio em relação à face cervical das restaurações e da crista óssea (epit/co), e a altura da crista óssea em relação ao preparo cavitário (cav/co). Todos os locais apresentavam inicialmente 100% de IPV, ISG e SS. Foram restaurados dez dentes com cada material e outros 10 locais foram utilizados como controle (CT). O IPV apresentou-se reduzido nos quadrantes 2 e 3 enquanto que o ISG apresentou reduções também nos locais sem controle de placa (s/ct). A redução no SS ocorreu somente em um cão. A PS apresentou alterações variadas, com as maiores reduções (-0,5mm) associadas ao CIV c/ct e os maiores aumentos com Am s/ct e CT s/ct (1,00mm). Aumentos da PI foram também variados, sendo os menores associados com áreas CT c/ct (1,00mm) e os maiores com Am s/ct. As diferenças entre DMM final e inicial variaram de –1,00mm (Am c/ct e CT c/ct) a 1,50mm (CIV c/ct). Alterações epiteliais foram mais freqüentemente observadas em sitos Am s/ct e c/ct. As médias das distâncias cav/co variaram de 1,77mm (CIV c/ct) a 2,51mm (CIV s/ct). As médias das distâncias epit/co variaram de 1,49mm (CIV c/ct) a 2,09mm (CT c/ct). Quanto ao infiltrado inflamatório, sítios Am s/ct e c/ct , e CIV s/ct estiveram mais associados a escores Severo. Pode-se concluir que quadros clínicos e histológicos de maior inflamação e destruição periodontal foram associados a locais restaurados em relação a locais não restaurados, sendo que a resposta inflamatória parece estar na dependência do controle da placa bacteriana supragengival.