885 resultados para Modelagem de dados
Resumo:
A doença de Alzheimer (DA) afeta mais de um milhão de habitantes no Brasil com grande impacto tanto na saúde como social e financeiro. O uso adequado de medicamentos e os programas de cuidado integrado são recomendados como as melhores práticas nesta doença. Em 2002, o Ministério da Saúde criou o Programa de Assistência Farmacêutica aos Portadores de doença de Alzheimer que garante aos portadores desta patologia acesso à avaliação por especialistas e tratamento medicamentoso de alto custo. Mas, para um melhor planejamento das ações relacionadas ao programa, é importante entender os padrões de morbi-mortalidade da população alvo, qualidade da assistência oferecida e o seu impacto. Com foco nesse cenário, esta tese teve como objetivo o estudo da adesão, mortalidade e sobrevida em uma população portadora de doença de Alzheimer assistida nesse programa de assistência farmacêutica. Para apresentação dessa pesquisa, dividiram-se os resultados em três artigos. No primeiro artigo, o objetivo foi avaliar a viabilidade de se utilizar as informações de reabastecimento de receitas coletadas por esse programa na construção de medidas de adesão, uma metodologia já explorada na literatura internacional, mas com experiência limitada no Brasil. Os dados foram acessados nos formulários de Autorização de Procedimentos de Alto Custo (APAC) armazenados na base de dados do programa de acesso de medicamentos excepcionais do Sistema de Informação Ambulatorial (SIA). Como resultado, foram criadas várias medidas de adesão com potencial aplicação no campo da farmacoepidemiologia e planejamento em saúde. No segundo artigo, o foco foi entender que fatores individuais, terapêuticos ou relacionados à assistência, poderiam estar relacionados com um aumento do risco de abandono do programa. Fatores como o sexo feminino, o número de comorbidades na APAC, o tipo de inibidor de colinesterase iniciado e a irregularidade nos reabastecimentos foram associados a um maior risco de abandono do programa. No terceiro artigo, pelas técnicas de relacionamento probabilístico de base de dados, agregaram-se os dados presentes no Sistema de Informação sobre Mortalidade (SIM) para avaliação dos padrões de mortalidade desta patologia. Cerca de 40% dos pacientes foram a óbito durante todo o período de seguimento e principal causa básica de mortalidade foi a doença de Alzheimer (19%). Idade mais avançada e sexo masculino foram as únicas variáveis associadas com uma menor sobrevida. A persistência no programa em seis meses e os diferentes níveis de adesão, medidos pela proporção de posse da medicação, não mostraram associação com a sobrevida. Conclui-se que os dados disponíveis nas bases possibilitaram a investigação do padrão de mortalidade e utilização de um programa de assistência na doença de Alzheimer. E, a possibilidade de analisar grandes populações, em caráter contínuo, com medidas objetivas e com um custo relativamente baixo suplanta o caráter limitado das informações individuais e da doença. Políticas que suportem o aumento na disponibilidade, qualidade e escopo da informação e o avanço nas metodologias de pesquisa em bases de dados devem ser uma prioridade da saúde, pois contribuem com a criação de informações relevantes para um uso racional de recursos e melhora nas práticas de cuidado.
Resumo:
Neste trabalho aplicamos métodos espectrais para a determinação da configuração inicial de três espaços-tempos contendo buracos negros. Para isto apresentamos primeiro a foliação do espaço-tempo em hipersuperfícies tridimensionais espaciais parametrizadas pela função temporal t. Este processo é chamado de decomposição 3+1 [2] [5]. O resultado deste processo são dois conjuntos de equações classificadas em equações de vínculo e evolução [4]. As equações de vínculo podem ser divididas em vínculos Hamiltoniano e dos momentos. Para a obtenção dos dados iniciais dos problemas estudados aqui, apenas a equação de vínculo Hamiltoniano será resolvida numericamente, pois as equações de vínculo dos momentos possuem solução analítica nestes casos. Uma pequena descrição dos métodos espectrais é apresentada, destacando-se os método de Galerkin, método pseudoespectral ou de colocação e método de Tau, que são empregados na resolução das equações de vínculo Hamiltoniano dos problemas estudados. Verificamos que os resultados obtidos neste trabalho superam aqueles produzidos por Kidder e Finn [15], devido a uma escolha diferente das funções de base, que aqui satisfazem uma das condições de contorno.
Resumo:
Os recentes avanços tecnológicos fizeram aumentar o nível de qualificação do pesquisador em epidemiologia. A importância do papel estratégico da educação não pode ser ignorada. Todavia, a Associação Brasileira de Pós-graduação em Saúde Coletiva (ABRASCO), no seu último plano diretor (2005-2009), aponta uma pequena valorização na produção de material didático-pedagógico e, ainda, a falta de uma política de desenvolvimento e utilização de software livre no ensino da epidemiologia. É oportuno, portanto, investir em uma perspectiva relacional, na linha do que a corrente construtivista propõe, uma vez que esta teoria tem sido reconhecida como a mais adequada no desenvolvimento de materiais didáticos informatizados. Neste sentido, promover cursos interativos e, no bojo destes, desenvolver material didático conexo é oportuno e profícuo. No âmbito da questão política de desenvolvimento e utilização de software livre no ensino da epidemiologia, particularmente em estatística aplicada, o R tem se mostrado um software de interesse emergente. Ademais, não só porque evita possíveis penalizações por utilização de software comercial sem licença, mas também porque o franco acesso aos códigos e programação o torna uma ferramenta excelente para a elaboração de material didático em forma de hiperdocumentos, importantes alicerces para uma tão desejada interação docentediscente em sala de aula. O principal objetivo é desenvolver material didático em R para os cursos de bioestatística aplicada à análise epidemiológica. Devido a não implementação de certas funções estatísticas no R, também foi incluída a programação de funções adicionais. Os cursos empregados no desenvolvimento desse material fundamentaram-se nas disciplinas Uma introdução à Plataforma R para Modelagem Estatística de Dados e Instrumento de Aferição em Epidemiologia I: Teoria Clássica de Medidas (Análise) vinculadas ao departamento de Epidemiologia, Instituto de Medicina Social (IMS) da Universidade do Estado do Rio de Janeiro (UERJ). A base teórico-pedagógica foi definida a partir dos princípios construtivistas, na qual o indivíduo é agente ativo e crítico de seu próprio conhecimento, construindo significados a partir de experiências próprias. E, à ótica construtivista, seguiu-se a metodologia de ensino da problematização, abrangendo problemas oriundos de situações reais e sistematizados por escrito. Já os métodos computacionais foram baseados nas Novas Tecnologias da Informação e Comunicação (NTIC). As NTICs exploram a busca pela consolidação de currículos mais flexíveis, adaptados às características diferenciadas de aprendizagem dos alunos. A implementação das NTICs foi feita através de hipertexto, que é uma estrutura de textos interligados por nós ou vínculos (links), formando uma rede de informações relacionadas. Durante a concepção do material didático, foram realizadas mudanças na interface básica do sistema de ajuda do R para garantir a interatividade aluno-material. O próprio instrutivo é composto por blocos, que incentivam a discussão e a troca de informações entre professor e alunos.
Resumo:
O presente trabalho tem como objetivo a análise do comportamento dos aterros instrumentados que compõem a obra do Arco Metropolitano do Rio de Janeiro. Os resultados da instrumentação de campo serão discutidos e retroanalisados, juntamente com dados disponíveis na literatura, buscando-se a definição de parâmetros confiáveis, representativos do comportamento da argila compressível da região em estudo. O Arco Metropolitano do Rio de Janeiro é uma rodovia projetada que servirá como ligação entre as 5 principais rodovias que cortam o município do Rio de Janeiro. Dada a magnitude da obra e a ocorrência de significativas espessuras de solos moles em alguns trechos da região, determinados aterros que compõem a rodovia foram instrumentados com placas de recalque e inclinômetros, instalados em diferentes estações de monitoramento, no intuito de avaliar os deslocamentos verticais e horizontais dos aterros durante o processo construtivo. De posse de parâmetros confiáveis, procede-se à simulação numérica do processo construtivo de um dos aterros, a partir do programa PLAXIS, de elementos finitos. Os resultados numéricos são confrontados com a instrumentação de campo (fornecida por placas de recalque) e com os resultados de previsões teóricas (teoria de adensamento unidimensional). Em projetos de aterros sobre solos compressíveis, a instrumentação geotécnica é de grande importância, pois permite acompanhar o desenvolvimento de todo o processo construtivo, e as deformações decorrentes da sobrecarga imposta pelo lançamento de camadas de aterro. A imposição de um carregamento sobre solos de alta compressibilidade e baixa resistência pode acarretar em grandes deformações ao longo do tempo, além de rupturas indesejáveis do solo de fundação. Os resultados comprovaram que a modelagem numérica mostrou-se uma ferramenta adequada para a previsão dos recalques totais e tempos de adensamento. A definição de parâmetros representativos, com base em ensaios executados em amostras de boa qualidade, é o primeiro passo para a previsão coerente da evolução dos recalques com o tempo. A retroanálise do comportamento de aterros sobre solos moles permite a reavaliação das premissas de projeto, uma vez que as limitações das teorias de análise e a dificuldade na seleção de parâmetros, muitas vezes acarretam em estimativas de recalque incoerentes com as observações de campo.
Resumo:
A utilização de treliças para o escoramento de elementos estruturais de concreto armado e aço é considerada uma solução eficaz para o atual sistema de construção de engenharia civil. Uma mudança de atitude no processo de construção, associado com a redução dos custos causou um aumento considerável na utilização de treliças tridimensionais em aço com maior capacidade de carga. Infelizmente, o desenho destes sistemas estruturais baseia-se em cálculos muito simplificados relacionadas com vigas de uma dimensão, com propriedades de inércia constantes. Tal modelagem, muito simplificada, não pode representar adequadamente a resposta real dos modelos estruturais e pode levar a inviabilidade econômica ou mesmo inseguro desenho estrutural. Por outro lado, estas estruturas treliçadas estão relacionadas com modelos de geometria complexa e são desenhados para suportar níveis de cargas muito elevadas. Portanto, este trabalho de investigação propôs modelos de elementos finitos que representam o caráter tridimensional real do sistema de escoramento, avaliando o comportamento estático e dinâmico estrutural com mais confiabilidade e segurança. O modelo computacional proposto, desenvolvido para o sistema estrutural não linear de análise estática e dinâmica, aprovou as habituais técnicas de refinamento de malha presentes em simulações do método de elementos finitos, com base no programa ANSYS [1]. O presente estudo analisou os resultados de análises linear-elástica e não linear geométrica para ações de serviço, físicos e geométricos para as ações finais. Os resultados do presente estudo foram obtidas, com base na análise linear-elástica e não linearidade geométrica e física, e comparados com os fornecidos pela metodologia simplificada tradicional de cálculo e com os limites recomendadas por normas de concepção.
Resumo:
Diversos pesquisadores têm estudado o comportamento e o emprego de aduelas de concreto, que constituem as vigas segmentadas em sistemas estruturais, de maneira especial pontes e viadutos. Por esta razão, inúmeros trabalhos têm sido publicados nos últimos anos respaldados por testes experimentais e análises numéricas. O comportamento destas vigas contrasta com as clássicas vigas monolíticas em diversos aspectos, pois, a estrutura é composta de partes de elementos de concreto pré-moldado que, após serem posicionados no local definitivo, são protendidos. A protensão pode ser aderente ou não aderente. A principal vantagem deste sistema de construção é a rapidez e o alto controle de qualidade, por isso é largamente utilizado, havendo uma demanda de estudo de previsão do seu real comportamento No presente trabalho apresenta-se uma modelagem numérica via elementos finitos, para simular o comportamento de vigas compostas por aduelas justapostas sem material ligante entre as juntas. A protensão aplicada é aderente e a análise considera a não linearidade da região da junta. Assim sendo, o objetivo desta investigação é dar uma contribuição ao estudo do comportamento estrutural estático de vigas segmentadas, atentando para o comportamento das juntas, utilizando um programa comercial. Para o modelo são empregadas técnicas usuais de discretização, via método dos elementos finitos (MEF), por meio do programa de elementos finitos SAP2000[93]. O modelo proposto é constituído de elementos de placa próprios para concreto para representar a viga, a protensão é introduzida por meio de barras bidimensionais que transferem as tensões ao longo de seu comprimento e as juntas são implementadas utilizando elementos de contato. A analise é bidimensional e considera os efeitos das perdas de protensão. Este trabalho de pesquisa objetiva também o estudo de elementos de contato especialmente as características de deformação para esta ferramenta computacional. A definição dos parâmetros para o modelo foi feita com base em dados experimentais disponíveis na literatura. O modelo numérico foi calibrado e confrontado com resultados experimentais obtidos em ensaios de laboratório.
Resumo:
Passarelas de pedestres com arquitetura moderna, esbeltas e leves são uma constante nos dias atuais, apresentando grandes vãos e novos materiais. Este arrojo arquitetônico tem gerado inúmeros problemas de vibrações excessivas, especialmente sobre passarelas mistas (aço-concreto). As normas e recomendações de projeto consideram, ainda, que as forças induzidas pelo caminhar humano são determinísticas. Todavia, o caminhar humano e as respectivas forças dinâmicas geradas apresentam comportamento randômico. Deste modo, o presente trabalho de pesquisa objetiva contribuir com os projetistas estruturais, a partir do emprego de uma abordagem probabilística para avaliação do estado limite de utilização deste tipo de estrutura, associado a vibrações excessivas que podem vir a causar desconforto humano. Para tal, utiliza-se como modelo estrutural uma passarela de pedestres mista (aço-concreto) construída no campus do Instituto de Traumatologia e Ortopedia (INTO), na cidade do Rio de Janeiro. Com base na utilização dos métodos probabilísticos, torna-se possível determinar a probabilidade dos valores das acelerações de pico da estrutura ultrapassarem ou não os critérios de conforto humano estabelecidos em normas e recomendações de projeto. Os resultados apontam para o fato de que os valores das acelerações de pico calculadas com base exclusivamente nos métodos determinísticos podem ser superestimados em algumas situações de projeto.
Resumo:
As ligações desempenham um papel fundamental no comportamento global das estruturas de aço. Inúmeros trabalhos de pesquisa têm sido desenvolvidos para entender o comportamento real de uma ligação e sua influência na resistência global dos pórticos. Atualmente, a Norma Brasileira de estruturas de aço de edificações, NBR 8800, considera o comportamento das ligações entre duas situações extremas: rígidas, onde não ocorre nenhuma rotação entre os membros conectados, transferindo momento fletor, força cortante e força normal; ou flexíveis, caracterizadas pela liberdade de rotação entre os membros conectados, impedindo a transmissão de momento fletor. Outras normas de projeto de estruturas de aço, consideram que as ligações apresentam um comportamento intermediário, ou seja, semi-rigídas, que podem estar submetidas a uma combinação de momento fletor e esforço normal. Porém, mesmo com a combinação, estas normas não consideram a presença de esforço normal (tração e/ou compressão). Uma limitação empírica de 5% da resistência plástica da viga é a única condição imposta no Eurocode 3. Para o estudo da ligação semi-rigída será utilizada a filosofia do Método das Componentes, que verifica a resistência da ligação e sua classificação quanto à rigidez rotacional, desenvolvida através de modelos mecânicos (modelos de molas). O objetivo deste trabalho é descrever alguns resultados de caracterização de ligações viga-coluna com placa de extremidade ajustada à altura da viga obtidos através de um modelo de elementos finitos. Para tal, será realizada uma análise não-linear geométrica e de material. Esta análise possibilitará avaliar os principais parâmetros que influenciam no comportamento deste componente no que diz respeito a sua avaliação em termos de distribuição de tensões e deformações no modelo de forma global.
Resumo:
A previsão do comportamento de resíduos constituiu-se em um desafio geotécnico, uma vez que estes materiais apresentam uma resposta distinta dos materiais usualmente encontrados em depósitos naturais. A análise dos recalques da fundação, decorrentes da sobrecarga imposta pelo alteamento, é complexa, tendo em vista que o adensamento de resíduos pressupõe grandes deformações, invalidando o uso de teorias clássicas de adensamento. Atualmente, no Brasil, a técnica de disposição de resíduos de bauxita prevê uma operação inicial de lançamento no interior de lagos artificiais, em forma de polpa. Após o esgotamento do lago e ressecamento do resíduo, inicia-se o lançamento pelo método a montante. Neste método, a polpa é lançada sobre o resíduo pré-existente, que se encontra em processo de adensamento. O presente trabalho tem como objetivo reproduzir numericamente o comportamento de áreas de resíduos durante a etapa de alteamento a montante. A pesquisa tem como enfoque 2 áreas de resíduos de bauxita. Uma delas encontra-se em fase de reabilitação e dispõe de instrumentação de campo (recalques e deslocamentos horizontais). A outra se encontra em fase de operação do alteamento e dispõe de dados experimentais. Desta forma, a metodologia consistiu na reprodução numérica do processo de alteamento da área instrumentada e comparação dos resultados com a instrumentação de campo, com objetivo de avaliar o modelo numérico e os parâmetros do resíduo. Posteriormente, realizou-se a previsão do comportamento do resíduo de fundação da área em fase de alteamento. Os parâmetros geotécnicos foram definidos a partir de um extenso programa de ensaios de campo e laboratório, executado no local em estudo, fazendo-se uso de um tratamento estatístico dos dados experimentais. Os resultados numéricos mostraram a potencialidade do programa na previsão do comportamento de áreas de resíduos durante o alteamento a montante, com previsões de recalques e deslocamentos horizontais coerentes com a instrumentação de campo.
Resumo:
Este trabalho apresenta uma modelagem matemática para o processo de aquecimento de um corpo exposto a uma fonte pontual de radiação térmica. O resultado original que permite a solução exata de uma equação diferencial parcial não linear a partir de uma seqüência de problemas lineares também é apresentado. Gráficos gerados com resultados obtidos pelo método de diferenças finitas ilustram a solução do problema proposto.
Resumo:
principalmente pelo baixo grau de complexidade de especialização, escassez de caracteres distintivos e a elevada plasticidade morfológica. A partir do século XIX emergiram classificações mais robustas. O que conhecemos hoje como Ordem Poecilosclerida só começou a ser delineado pela iniciativa de Zittel (1878) com o reconhecimento de Monaxonida, ou seja, reconhecimento de um padrão de simetria nas categorias de espículas. Ridley e Dendy (1887) apresentaram uma nova classificação para as esponjas do grupo Monaxonida utilizada por Topsent (1894) para criação da Familia Poeciloscleridae, eregida a ordem por este último autor em 1928, enfatizando a presença das quelas como microscleras. Posteriormente, van Soest (1984) e Bergquist e Fromont (1988) empreenderam discussões dessa classificação com base em uma perspectiva filogenética. Uma classificação robusta e de consenso só foi conseguida a partir dos trabalhos de Hajdu e colaboradores (1994a, 1994b) e Hajdu (1994, 1995), com o estabelecimento das Subordens: Mycalina, Myxillina e Microcionina. Apesar disso, as relações internas das famílias da Subordem Mycalina permaneciam com dúvidas, principalmente no tocante à inclusão de Podospongiidae, Isodictyidae, e a relação de Poecilosclerida com a Ordem Haplosclerida. Neste trabalho foi proposto a revisão da classificação da Subordem Mycalina com base em dados morfológicos e moleculares. Foram feitas análises filogenéticas em três níveis taxonômicos, espécie, gênero e família, com base em dados morfológicos. Além disso, foi feita uma análise filogenética molecular utilizando sequências parciais da subunidade maior do RNA ribossomal (LSU do RNAr). As amostras de Mycalina foram amplificadas via PCR e posteriormente sequenciadas. Com base nestes resultados foi concluído que: as Familias Cladorhizidae, Guitarridae, Mycalidae e Hamacanthidae são monofiléticas. Para esta última foi confirmada a série de transformação sigmancistra > cirtancistra > diâncistra > clavidisco. A posição da Familia Podospongiidae dentro de Mycalina está bem corroborada, porém, precisa ser melhor estudada com dados moleculares para determinar, ou não, o seu monofiletismo. A Familia Esperiopsidae precisa ser melhor estudada com base em dados morfológicos e o gênero Amphilectus precisa ser revisado, provavelmente uma parte deste estaria melhor alocado em Haplosclerida junto com Isodictyidae. A Familia Desmacellidae não é monofilética, bem como Biemna e Neofibularia, provavelmente, não são Poecilosclerida e deveriam ser transferidas para uma posição próxima de Tetractinellida. Desmacella provavelmente é uma Mycalina com posição basal na Subordem. Os demais gêneros precisam ser estudados com base em dados moleculares. A Ordem Haplosclerida provavelmente é o grupo irmão de Poecilosclerida e a série de transformação sigmas > quelas foi confirmada com base em dados morfológicos e moleculares. A Subordem Mycalina não é monofilética como definida em Hajdu e van Soest (2002a). Palavras-chave: Sistemática. Porifera. Evolução.
Resumo:
Os antipsicóticos são drogas utilizadas no tratamento de muitos transtornos psiquiátricos, sendo classificados em dois grupos: típicos e atípicos. Os típicos formam o grupo de drogas que bloqueiam especialmente os receptores de dopamina e, por isto, causam efeitos colaterais característicos, que se manifestam através de sintomas extrapiramidais e podem terminar em discinesia tardia. Os atípicos apresentam eficácia antipsicótica similar à dos antipsicóticos típicos, mas produzem menos efeitos colaterais extrapiramidais e não causam discinesia tardia. Os antipsicóticos se ligam às proteínas plasmáticas, principalmente a albumina, a qual representa cerca de 60% do total das proteínas no soro humano. Neste trabalho estudamos os processos de interação de duas drogas antipsicóticas atípicas, risperidona e sulpirida, com as albuminas séricas humana (HSA) e bovina (BSA), através da técnica de supressão da fluorescência intrínseca do triptofano. A partir dos espectros de fluorescência, a análise dos dados foi feita obtendo-se os gráficos e as constantes de Stern-Volmer. A análise da supressão da fluorescência foi feita a partir da média aritmética dos dados oriundos dos experimentos realizados em cada condição adotada. Como a molécula da sulpirida é fluorescente desenvolvemos uma modelagem matemática do processo de interação, que nos permitiu então obter os dados referentes à supressão da fluorescência da proteína. Os resultados mostraram que a risperidona e a sulpirida suprimem a fluorescência de ambas albuminas por um processo de quenching estático, formando complexos droga-albumina. A risperidona tem uma afinidade com a HSA cerca de 6,5 vezes maior do que a sulpirida, a 37 oC. As constantes de associação calculadas para a interação risperidona-HSA, através da Teoria de Stern-Volmer, foram 1,43 ( 0,05) x 105 M-1, a 37 C, e 2,56 ( 0,09) x 105 M-1, a 25 C1; e para a sulpirida, 2,20 ( 0,08) x 104 M-1, a 37 C, e 5,46 ( 0,20) x 104 M-1, a 25 C. Como a taxa de quenching da BSA foi maior do que a da HSA, sugerimos que o sítio primário para a risperidona nas albuminas esteja localizado mais próximo ao domínio do triptofano 134 da BSA do que do domínio do triptofano 212 da HSA. O mesmo sugerimos com relação ao sítio para a sulpirida a 37 C.
Resumo:
Em 2005, a Agência Nacional de Saúde Suplementar (ANS) estabelece o padrão TISS (Troca de Informação na Saúde Suplementar), intercâmbio eletrônico obrigatório entre as operadoras de planos de saúde (cerca de 1500 registradas na ANS) e prestadores de serviços (cerca de 200 mil) sobre os eventos de assistência prestados aos beneficiários. O padrão TISS foi desenvolvido seguindo a estrutura do Comitê ISO/TC215 de padrões para informática em saúde e se divide em quatro partes: conteúdo e estrutura, que compreende a estrutura das guias em papel; representação de conceitos em saúde, que se refere às tabelas de domínio e vocabulários em saúde; comunicação, que contempla as mensagens eletrônicas; e segurança e privacidade, seguindo recomendação do Conselho Federal de Medicina (CFM). Para aprimorar sua metodologia de evolução, essa presente tese analisou o grau de interoperabilidade do padrão TISS segundo a norma ISO 20514 (ISO 20514, 2005) e a luz do modelo dual da Fundação openEHR, que propõe padrões abertos para arquitetura e estrutura do Registro Eletrônico de Saúde (RES). O modelo dual da Fundação openEHR é composto, no primeiro nível, por um modelo de referência genérico e, no segundo, por um modelo de arquétipos, onde se detalham os conceitos e atributos. Dois estudos foram realizados: o primeiro se refere a um conjunto de arquétipos demográficos elaborados como proposta de representação da informação demográfica em saúde, baseado no modelo de referência da Fundação openEHR. O segundo estudo propõe um modelo de referência genérico, como aprimoramento das especificações da Fundação openEHR, para representar o conceito de submissão de autorização e contas na saúde, assim como um conjunto de arquétipos. Por fim, uma nova arquitetura para construção do padrão TISS é proposta, tendo como base o modelo dual da Fundação openEHR e como horizonte a evolução para o RES centrado no paciente
Resumo:
Dados faltantes são um problema comum em estudos epidemiológicos e, dependendo da forma como ocorrem, as estimativas dos parâmetros de interesse podem estar enviesadas. A literatura aponta algumas técnicas para se lidar com a questão, e, a imputação múltipla vem recebendo destaque nos últimos anos. Esta dissertação apresenta os resultados da utilização da imputação múltipla de dados no contexto do Estudo Pró-Saúde, um estudo longitudinal entre funcionários técnico-administrativos de uma universidade no Rio de Janeiro. No primeiro estudo, após simulação da ocorrência de dados faltantes, imputou-se a variável cor/raça das participantes, e aplicou-se um modelo de análise de sobrevivência previamente estabelecido, tendo como desfecho a história auto-relatada de miomas uterinos. Houve replicação do procedimento (100 vezes) para se determinar a distribuição dos coeficientes e erros-padrão das estimativas da variável de interesse. Apesar da natureza transversal dos dados aqui utilizados (informações da linha de base do Estudo Pró-Saúde, coletadas em 1999 e 2001), buscou-se resgatar a história do seguimento das participantes por meio de seus relatos, criando uma situação na qual a utilização do modelo de riscos proporcionais de Cox era possível. Nos cenários avaliados, a imputação demonstrou resultados satisfatórios, inclusive quando da avaliação de performance realizada. A técnica demonstrou um bom desempenho quando o mecanismo de ocorrência dos dados faltantes era do tipo MAR (Missing At Random) e o percentual de não-resposta era de 10%. Ao se imputar os dados e combinar as estimativas obtidas nos 10 bancos (m=10) gerados, o viés das estimativas era de 0,0011 para a categoria preta e 0,0015 para pardas, corroborando a eficiência da imputação neste cenário. Demais configurações também apresentaram resultados semelhantes. No segundo artigo, desenvolve-se um tutorial para aplicação da imputação múltipla em estudos epidemiológicos, que deverá facilitar a utilização da técnica por pesquisadores brasileiros ainda não familiarizados com o procedimento. São apresentados os passos básicos e decisões necessárias para se imputar um banco de dados, e um dos cenários utilizados no primeiro estudo é apresentado como exemplo de aplicação da técnica. Todas as análises foram conduzidas no programa estatístico R, versão 2.15 e os scripts utilizados são apresentados ao final do texto.
Resumo:
O objetivo principal desta dissertação é analisar os impactos da abertura comercial vista no Brasil no início da década de 1990 entre 1990 a 1996 na margem de lucro das indústrias de transformação passando por três padrões monetários diferentes (cruzeiro, cruzeiro real e real). A especificação e metodologia adotadas no trabalho são as de Goldar e Aggawal (2004), que fazem uma análise de dados em painel para efeitos fixos e randômicos para as indústrias de transformação indianas como um todo e, posteriormente, aplicando os mesmos testes separando os vinte e oito setores da indústria brasileira de transformação em setores de bens de capital e intermediários no primeiro grupo e bens de capital no segundo. Este trabalho ainda inclui esta metodologia aplicando, além das duas já citadas, o teste de mínimos quadrados ordinários (MQO) para permitir uma melhor análise com três testes diferentes antes e depois de separar os setores por meio de variáveis explicativas como barreiras à importação, concentração industrial, participação salarial, produtividade do trabalho, representatividade setorial e variação na taxa de crescimento da produção do setor entre os anos. Conclui-se que o aumento observado na margem de lucro foi impactado significativamente pelas variáveis expostas acima e estes resultados são importantes para que possamos auferir de que forma impactaram positivamente ou contribuíram negativamente na margem de lucro auferida pela indústria brasileira de transformação entre 1990 e 1996.